跳至主要内容

配置 LLM

Node CLI 支持多种 Provider。默认会根据已配置的 API Key 自动选择,也可用 --provider 指定。

支持的 Provider

Provider环境变量
OpenAIOPENAI_API_KEY
AnthropicANTHROPIC_API_KEY
GeminiGEMINI_API_KEY
DeepSeekDEEPSEEK_API_KEY
MiniMaxMINIMAX_API_KEY
Moonshot (Kimi)MOONSHOT_API_KEY
Qwen (DashScope)DASHSCOPE_API_KEY / QWEN_API_KEY
Ollama (本地)OLLAMA_HOST

示例:OpenAI

export OPENAI_API_KEY=sk-xxx
npx cogn@2.2.12 run code-reviewer --args "your code" --provider openai --model gpt-4o

示例:Anthropic

export ANTHROPIC_API_KEY=sk-ant-xxx
npx cogn@2.2.12 run code-reviewer --args "your code" --provider anthropic --model claude-sonnet-4.5

示例:Ollama

export OLLAMA_HOST=http://localhost:11434
npx cogn@2.2.12 run code-reviewer --args "your code" --provider ollama --model llama3.1

模型覆盖

  • CLI: --model <name>
  • 环境变量:COG_MODEL

检查配置

npx cogn@2.2.12 doctor