DocsAI 供应商模型选择与 Token 模式
返回文档
AI 供应商

模型选择与 Token 模式

选择和切换 AI 模型,配置故障转移,并通过普通和节省模式管理 Token 使用量

最后更新: 2026年3月1日

YeePilot 让您选择为会话提供动力的 AI 模型。您可以在配置中设置默认模型,按命令覆盖它,或在交互式会话中随时切换模型。结合 Token 模式,您可以完全控制 AI 能力和 Token 使用量之间的平衡。

查看和更改模型

会话中使用 /model

在交互式会话中,使用 /model 斜杠命令查看当前模型或切换到不同的模型:

plaintext
/model                          # 显示当前模型和提供商
/model gpt-4o                   # 切换到 GPT-4o
/model claude-sonnet-4-20250514 # 切换到 Claude Sonnet 4

更改立即在当前会话的后续交互中生效。

通过配置

~/.yeepilot/config.yaml 中设置默认模型:

yaml
ai:
  provider: openai
  model: gpt-4o

当您启动新的 YeePilot 会话而未指定其他模型时,将使用此模型。

按命令覆盖

使用 --model 标志为单个命令覆盖模型:

bash
yeepilot exec --model claude-sonnet-4-20250514 "analyze disk usage and suggest cleanup"

这使用指定的模型运行任务而不更改您的默认配置。

提供商特定的模型 ID

每个提供商使用自己的模型标识符格式。以下是一些常用模型:

OpenRouter

plaintext
openai/gpt-oss-120b:free       # 免费方案(默认)
openai/gpt-4o                   # 通过 OpenRouter 使用 GPT-4o
anthropic/claude-sonnet-4-20250514  # 通过 OpenRouter 使用 Claude
meta-llama/llama-3-70b           # Llama 3 70B

OpenRouter 让您访问来自各实验室的 100+ 模型。在 openrouter.ai/models (opens in new tab) 浏览完整列表。

OpenAI

plaintext
gpt-4o                          # GPT-4o(默认)
gpt-4                           # GPT-4
gpt-4o-mini                     # GPT-4o Mini(更快、更便宜)

Anthropic

plaintext
claude-sonnet-4-20250514        # Claude Sonnet 4(默认)
claude-opus-4-20250514          # Claude Opus 4

故障转移配置

故障转移系统封装多个提供商后端,使 YeePilot 即使在某个提供商宕机时也能保持运行。当主要提供商失败时,YeePilot 自动尝试列表中的下一个。

yaml
ai:
  provider: anthropic
  model: claude-sonnet-4-20250514
  api_key: sk-ant-...
  failover:
    - provider: openai
      model: gpt-4o
      api_key: sk-...
    - provider: openrouter
      model: openai/gpt-oss-120b:free
      api_key: sk-or-...

关键故障转移行为:

  • 冷却期 -- 失败的提供商暂时从轮换中移除,防止重复错误
  • 自动恢复 -- 冷却期到期后提供商重新加入轮换
  • 透明切换 -- 故障转移在后台发生;您的会话不间断地继续

Token 模式

YeePilot 提供两种 Token 模式来控制命令输出的处理方式,让您在 AI 增强摘要和原始效率之间进行权衡。

普通模式(默认)

在普通模式下,AI 在展示给您之前会总结命令输出。当命令产生冗长输出而您想让 AI 突出重点时,这很有用。

plaintext
> Check all listening ports and summarize what services are running
 
Running: ss -tlnp
[AI Summary] Found 7 listening services:
  - nginx on ports 80 and 443
  - PostgreSQL on port 5432
  - Redis on port 6379
  - SSH on port 22
  ...

节省模式

在节省模式下,命令输出直接显示给您,无需 AI 总结。这使用更少的 Token,适合简单命令中您想看到原始输出的情况。

plaintext
> Show disk usage
 
Running: df -h
Filesystem      Size  Used Avail Use% Mounted on
/dev/sda1       100G   45G   55G  45% /
/dev/sdb1       500G  200G  300G  40% /data
tmpfs           7.8G  1.2M  7.8G   1% /run

切换 Token 模式

在会话中使用 /tokenmode 斜杠命令:

plaintext
/tokenmode              # 显示当前模式
/tokenmode normal       # 切换到普通模式(AI 总结输出)
/tokenmode saver        # 切换到节省模式(原始输出,更少 Token)

或在配置中设置:

yaml
ai:
  token_mode: normal    # normal 或 saver

各模式适用场景

场景推荐模式
复杂诊断任务normal
简单状态检查saver
学习命令的功能normal
运行熟悉的命令saver
节省 API Token 使用量saver
多步骤故障排除normal