OpenCode 配置指南
OpenCode 是一款基于终端的 AI 编程助手,支持通过配置文件自定义 API 端点。
配置文件位置
| 作用范围 | 路径 |
|---|---|
| 全局配置 | ~/.config/opencode/opencode.json |
| 项目配置 | ./opencode.json(项目根目录) |
项目配置优先级高于全局配置。
方式一:Anthropic 原生协议(推荐)
编辑 ~/.config/opencode/opencode.json:
{
"$schema": "https://opencode.ai/config.json",
"provider": {
"anthropic": {
"options": {
"baseURL": "https://llm.starapp.net/api/llm",
"apiKey": "your-token-here"
}
}
}
}
支持 Claude 全部能力(system、tool_use、vision、流式输出)。
方式二:OpenAI 兼容协议
{
"$schema": "https://opencode.ai/config.json",
"provider": {
"openai": {
"options": {
"baseURL": "https://llm.starapp.net/api/llm/v1",
"apiKey": "your-token-here"
}
}
}
}
使用环境变量(推荐)
避免将 Token 硬编码到配置文件,改用环境变量引用:
{
"$schema": "https://opencode.ai/config.json",
"provider": {
"anthropic": {
"options": {
"baseURL": "https://llm.starapp.net/api/llm",
"apiKey": "{env:ANTHROPIC_API_KEY}"
}
}
}
}
然后在 Shell 配置文件(~/.zshrc 或 ~/.bashrc)中设置:
export ANTHROPIC_API_KEY=your-token-here
验证配置
opencode
启动后选择模型,发送一条消息,看到响应则配置成功。
注意事项
baseURL末尾不要加斜杠- Anthropic 协议的
baseURL为https://llm.starapp.net/api/llm(无/v1) - OpenAI 协议的
baseURL为https://llm.starapp.net/api/llm/v1(含/v1) - 可用模型 ID 见模型列表