DocsKI-AnbieterModellauswahl & Token-Modi
Zurück zur Doku
KI-Anbieter

Modellauswahl & Token-Modi

KI-Modelle wählen und wechseln, Failover konfigurieren und Token-Verbrauch mit Normal- und Sparmodus verwalten

Zuletzt aktualisiert: 1. März 2026

YeePilot ermöglicht es Ihnen, zu wählen, welches KI-Modell Ihre Sitzungen antreibt. Sie können ein Standardmodell in Ihrer Konfiguration festlegen, es pro Befehl überschreiben oder Modelle während einer interaktiven Sitzung spontan wechseln. In Kombination mit Token-Modi haben Sie volle Kontrolle über das Gleichgewicht zwischen KI-Leistungsfähigkeit und Token-Verbrauch.

Ihr Modell anzeigen und ändern

In der Sitzung mit /model

Verwenden Sie während einer interaktiven Sitzung den /model-Slash-Befehl, um Ihr aktuelles Modell zu sehen oder zu einem anderen zu wechseln:

plaintext
/model                          # Aktuelles Modell und Anbieter anzeigen
/model gpt-4o                   # Zu GPT-4o wechseln
/model claude-sonnet-4-20250514 # Zu Claude Sonnet 4 wechseln

Die Änderung tritt sofort für den Rest Ihrer Sitzung in Kraft.

Über die Konfiguration

Setzen Sie Ihr Standardmodell in ~/.yeepilot/config.yaml:

yaml
ai:
  provider: openai
  model: gpt-4o

Dieses Modell wird verwendet, wenn Sie eine neue YeePilot-Sitzung starten, ohne ein anderes anzugeben.

Pro-Befehl-Überschreibung

Überschreiben Sie das Modell für einen einzelnen Befehl mit dem --model-Flag:

bash
yeepilot exec --model claude-sonnet-4-20250514 "analyze disk usage and suggest cleanup"

Dies führt die Aufgabe mit dem angegebenen Modell aus, ohne Ihre Standardkonfiguration zu ändern.

Anbieterspezifische Modell-IDs

Jeder Anbieter verwendet sein eigenes Format für Modell-IDs. Hier sind einige häufig verwendete Modelle:

OpenRouter

plaintext
openai/gpt-oss-120b:free       # Kostenlose Stufe (Standard)
openai/gpt-4o                   # GPT-4o über OpenRouter
anthropic/claude-sonnet-4-20250514  # Claude über OpenRouter
meta-llama/llama-3-70b           # Llama 3 70B

OpenRouter gibt Ihnen Zugang zu über 100 Modellen von verschiedenen Laboren. Die vollständige Liste finden Sie unter openrouter.ai/models (opens in new tab).

OpenAI

plaintext
gpt-4o                          # GPT-4o (Standard)
gpt-4                           # GPT-4
gpt-4o-mini                     # GPT-4o Mini (schneller, günstiger)

Anthropic

plaintext
claude-sonnet-4-20250514        # Claude Sonnet 4 (Standard)
claude-opus-4-20250514          # Claude Opus 4

Failover-Konfiguration

Das Failover-System umhüllt mehrere Anbieter-Backends, damit YeePilot betriebsbereit bleibt, auch wenn ein Anbieter ausfällt. Wenn der primäre Anbieter fehlschlägt, versucht YeePilot automatisch den nächsten in der Liste.

yaml
ai:
  provider: anthropic
  model: claude-sonnet-4-20250514
  api_key: sk-ant-...
  failover:
    - provider: openai
      model: gpt-4o
      api_key: sk-...
    - provider: openrouter
      model: openai/gpt-oss-120b:free
      api_key: sk-or-...

Wichtiges Failover-Verhalten:

  • Abkühlperioden -- ein fehlgeschlagener Anbieter wird vorübergehend aus der Rotation entfernt, um wiederholte Fehler zu verhindern
  • Automatische Wiederherstellung -- Anbieter treten nach Ablauf der Abkühlperiode wieder in die Rotation ein
  • Transparentes Umschalten -- Failover geschieht im Hintergrund; Ihre Sitzung wird ohne Unterbrechung fortgesetzt

Token-Modi

YeePilot bietet zwei Token-Modi, die steuern, wie Befehlsausgaben verarbeitet werden, und Ihnen einen Kompromiss zwischen KI-erweiterten Zusammenfassungen und reiner Effizienz ermöglichen.

Normalmodus (Standard)

Im Normalmodus fasst die KI die Befehlsausgabe zusammen, bevor sie Ihnen präsentiert wird. Dies ist nützlich, wenn Befehle ausführliche Ausgaben produzieren und Sie möchten, dass die KI hervorhebt, was wichtig ist.

plaintext
> Check all listening ports and summarize what services are running
 
Running: ss -tlnp
[AI Summary] Found 7 listening services:
  - nginx on ports 80 and 443
  - PostgreSQL on port 5432
  - Redis on port 6379
  - SSH on port 22
  ...

Sparmodus

Im Sparmodus wird die Befehlsausgabe direkt ohne KI-Zusammenfassung angezeigt. Dies verbraucht weniger Token und ist ideal für einfache Befehle, bei denen Sie die Rohausgabe sehen möchten.

plaintext
> Show disk usage
 
Running: df -h
Filesystem      Size  Used Avail Use% Mounted on
/dev/sda1       100G   45G   55G  45% /
/dev/sdb1       500G  200G  300G  40% /data
tmpfs           7.8G  1.2M  7.8G   1% /run

Token-Modi wechseln

Verwenden Sie den /tokenmode-Slash-Befehl während einer Sitzung:

plaintext
/tokenmode              # Aktuellen Modus anzeigen
/tokenmode normal       # Zu Normal wechseln (KI-zusammengefasste Ausgabe)
/tokenmode saver        # Zu Sparmodus wechseln (Rohausgabe, weniger Token)

Oder setzen Sie ihn in Ihrer Konfiguration:

yaml
ai:
  token_mode: normal    # normal oder saver

Wann welchen Modus verwenden

SzenarioEmpfohlener Modus
Komplexe Diagnoseaufgabennormal
Einfache Statusprüfungensaver
Lernen, was Befehle tunnormal
Bekannte Befehle ausführensaver
API-Token-Verbrauch sparensaver
Mehrstufige Fehlerbehebungnormal