OpenCode 配置指南

OpenCode 是一款基于终端的 AI 编程助手,支持通过配置文件自定义 API 端点。

配置文件位置

作用范围 路径
全局配置 ~/.config/opencode/opencode.json
项目配置 ./opencode.json(项目根目录)

项目配置优先级高于全局配置。

方式一:Anthropic 原生协议(推荐)

编辑 ~/.config/opencode/opencode.json

{
  "$schema": "https://opencode.ai/config.json",
  "provider": {
    "anthropic": {
      "options": {
        "baseURL": "https://llm.starapp.net/api/llm",
        "apiKey": "your-token-here"
      }
    }
  }
}

支持 Claude 全部能力(system、tool_use、vision、流式输出)。

方式二:OpenAI 兼容协议

{
  "$schema": "https://opencode.ai/config.json",
  "provider": {
    "openai": {
      "options": {
        "baseURL": "https://llm.starapp.net/api/llm/v1",
        "apiKey": "your-token-here"
      }
    }
  }
}

使用环境变量(推荐)

避免将 Token 硬编码到配置文件,改用环境变量引用:

{
  "$schema": "https://opencode.ai/config.json",
  "provider": {
    "anthropic": {
      "options": {
        "baseURL": "https://llm.starapp.net/api/llm",
        "apiKey": "{env:ANTHROPIC_API_KEY}"
      }
    }
  }
}

然后在 Shell 配置文件(~/.zshrc~/.bashrc)中设置:

export ANTHROPIC_API_KEY=your-token-here

验证配置

opencode

启动后选择模型,发送一条消息,看到响应则配置成功。

注意事项

  • baseURL 末尾不要加斜杠
  • Anthropic 协议的 baseURLhttps://llm.starapp.net/api/llm(无 /v1
  • OpenAI 协议的 baseURLhttps://llm.starapp.net/api/llm/v1(含 /v1
  • 可用模型 ID 见模型列表