DocsFournisseurs d'IASelection de modele et modes de tokens
Retour à la doc
Fournisseurs d'IA

Selection de modele et modes de tokens

Choisissez et changez de modeles IA, configurez le basculement et gerez l'utilisation des tokens avec les modes normal et economique

Dernière mise à jour: 1 mars 2026

YeePilot vous permet de choisir quel modele IA alimente vos sessions. Vous pouvez definir un modele par defaut dans votre configuration, le remplacer par commande ou changer de modele a la volee pendant une session interactive. Combine aux modes de tokens, vous avez un controle total sur l'equilibre entre les capacites de l'IA et l'utilisation des tokens.

Consulter et changer votre modele

En session avec /model

Pendant une session interactive, utilisez la commande slash /model pour voir votre modele actuel ou en changer :

plaintext
/model                          # Afficher le modele et le fournisseur actuels
/model gpt-4o                   # Basculer vers GPT-4o
/model claude-sonnet-4-20250514 # Basculer vers Claude Sonnet 4

Le changement prend effet immediatement pour le reste de votre session.

Via la configuration

Definissez votre modele par defaut dans ~/.yeepilot/config.yaml :

yaml
ai:
  provider: openai
  model: gpt-4o

Ce modele est utilise chaque fois que vous demarrez une nouvelle session YeePilot sans en specifier un autre.

Remplacement par commande

Remplacez le modele pour une seule commande en utilisant le drapeau --model :

bash
yeepilot exec --model claude-sonnet-4-20250514 "analyser l'utilisation disque et suggerer un nettoyage"

Cela execute la tache avec le modele specifie sans modifier votre configuration par defaut.

Identifiants de modeles par fournisseur

Chaque fournisseur utilise son propre format d'identifiant de modele. Voici quelques modeles couramment utilises :

OpenRouter

plaintext
openai/gpt-oss-120b:free       # Niveau gratuit (par defaut)
openai/gpt-4o                   # GPT-4o via OpenRouter
anthropic/claude-sonnet-4-20250514  # Claude via OpenRouter
meta-llama/llama-3-70b           # Llama 3 70B

OpenRouter vous donne acces a plus de 100 modeles de divers laboratoires. Parcourez la liste complete sur openrouter.ai/models (opens in new tab).

OpenAI

plaintext
gpt-4o                          # GPT-4o (par defaut)
gpt-4                           # GPT-4
gpt-4o-mini                     # GPT-4o Mini (plus rapide, moins cher)

Anthropic

plaintext
claude-sonnet-4-20250514        # Claude Sonnet 4 (par defaut)
claude-opus-4-20250514          # Claude Opus 4

Configuration du basculement

Le systeme de basculement enveloppe plusieurs backends de fournisseurs pour que YeePilot reste operationnel meme lorsqu'un fournisseur tombe en panne. Lorsque le fournisseur principal echoue, YeePilot essaie automatiquement le suivant dans la liste.

yaml
ai:
  provider: anthropic
  model: claude-sonnet-4-20250514
  api_key: sk-ant-...
  failover:
    - provider: openai
      model: gpt-4o
      api_key: sk-...
    - provider: openrouter
      model: openai/gpt-oss-120b:free
      api_key: sk-or-...

Comportements cles du basculement :

  • Periodes de refroidissement -- un fournisseur en echec est temporairement retire de la rotation, empechant les erreurs repetees
  • Recuperation automatique -- les fournisseurs reintegrent la rotation apres l'expiration de la periode de refroidissement
  • Basculement transparent -- le basculement se produit en arriere-plan ; votre session continue sans interruption

Modes de tokens

YeePilot propose deux modes de tokens qui controlent la facon dont la sortie des commandes est traitee, vous offrant un compromis entre des resumes enrichis par l'IA et une efficacite brute.

Mode normal (par defaut)

En mode normal, l'IA resume la sortie des commandes avant de vous la presenter. C'est utile lorsque les commandes produisent une sortie verbeuse et que vous voulez que l'IA mette en evidence ce qui compte.

plaintext
> Verifier tous les ports en ecoute et resumer quels services fonctionnent
 
Execution : ss -tlnp
[Resume IA] 7 services en ecoute trouves :
  - nginx sur les ports 80 et 443
  - PostgreSQL sur le port 5432
  - Redis sur le port 6379
  - SSH sur le port 22
  ...

Mode economique

En mode economique, la sortie des commandes vous est montree directement sans resume par l'IA. Cela utilise moins de tokens et est ideal pour les commandes simples ou vous voulez voir la sortie brute.

plaintext
> Afficher l'utilisation disque
 
Execution : df -h
Filesystem      Size  Used Avail Use% Mounted on
/dev/sda1       100G   45G   55G  45% /
/dev/sdb1       500G  200G  300G  40% /data
tmpfs           7.8G  1.2M  7.8G   1% /run

Changer de mode de tokens

Utilisez la commande slash /tokenmode pendant une session :

plaintext
/tokenmode              # Afficher le mode actuel
/tokenmode normal       # Basculer vers normal (sortie resumee par l'IA)
/tokenmode saver        # Basculer vers economique (sortie brute, moins de tokens)

Ou definissez-le dans votre configuration :

yaml
ai:
  token_mode: normal    # normal ou saver

Quand utiliser chaque mode

ScenarioMode recommande
Taches de diagnostic complexesnormal
Verifications d'etat simplessaver
Apprendre ce que font les commandesnormal
Executer des commandes familieressaver
Economiser l'utilisation des tokens d'APIsaver
Depannage multi-etapesnormal