跳至主要内容

配置 LLM

Cognitive Modules 支持多种 LLM 后端。

支持的 LLM

Provider环境变量说明
OpenAIOPENAI_API_KEYGPT-4o 等
AnthropicANTHROPIC_API_KEYClaude 系列
MiniMaxMINIMAX_API_KEY国产大模型
Ollama-本地运行
Stub-测试用,返回示例

OpenAI

pip install cognitive-modules[openai]

export LLM_PROVIDER=openai
export OPENAI_API_KEY=sk-xxx
export LLM_MODEL=gpt-4o # 可选,默认 gpt-4o

Anthropic Claude

pip install cognitive-modules[anthropic]

export LLM_PROVIDER=anthropic
export ANTHROPIC_API_KEY=sk-ant-xxx
export LLM_MODEL=claude-sonnet-4-20250514 # 可选

MiniMax

pip install cognitive-modules[openai]  # 使用 OpenAI SDK

export LLM_PROVIDER=minimax
export MINIMAX_API_KEY=sk-xxx
export LLM_MODEL=MiniMax-Text-01 # 可选

Ollama(本地)

# 先安装 Ollama: https://ollama.ai
ollama pull llama3.1

export LLM_PROVIDER=ollama
export OLLAMA_HOST=http://localhost:11434 # 可选
export LLM_MODEL=llama3.1 # 可选

Stub(测试)

不配置任何环境变量时,自动使用 Stub:

cog run my-module input.json
# 返回示例输出(如果有的话)

检查配置

cog doctor

运行时切换

# 使用 OpenAI
LLM_PROVIDER=openai cog run code-reviewer --args "代码"

# 使用 Anthropic
LLM_PROVIDER=anthropic cog run code-reviewer --args "代码"

模型覆盖

# 使用特定模型
cog run code-reviewer --args "代码" --model gpt-4-turbo