Opencode 状态报告
当前运行模式:🔴 离线/本地调用模式
1. 配置信息
| 配置项 | 值 |
|---|---|
| 模型名称 | custom/qwen3.5-4b-claude-4.6-opus-reasoning-distill-heretic-v3-i1 |
| 模型别名 | Qwen3.5-4B |
| API 地址 | https://openai1.atibm.com/v1 |
| Provider | Custom API (本地自定义) |
2. 上下文限制分析
┌─────────────────────────────────────────────────────────────┐
│ 上下文窗口限制 │
├─────────────────────────────────────────────────────────────┤
│ 最大上下文:4096 tokens │
│ │
│ 占用情况: │
│ • 系统提示词 (System Prompt) : ~8000-10000+ tokens │
│ - 完整指令集 + 工具定义 │
│ • MCP Servers (未配置): 0 tokens │
│ • 用户输入: 4-12 tokens │
│ │
│ ⚠️ 结论:系统提示词已超过上下文窗口上限! │
└─────────────────────────────────────────────────────────────┘
3. 验证命令
# 查看配置
opencode debug config
# 列出可用模型
opencode models custom
# 查看所有 provider
opencode providers list
# 查看 MCP 服务器
opencode mcp list
4. 解决方案
方案 A:添加大模型 Provider(推荐)
登录 OpenAI(或其他平台):
opencode providers login https://platform.openai.com/api_keys/修改配置文件
~/.config/opencode/opencode.json:{ "provider": { "openai": {}, "custom": {...你的配置...} }, "model": "openai/gpt-4o", // 切换到大模型 "small_model": "custom/..." }重启 opencode:
# 停止当前服务 # 重新启动 opencode run "开始工作"
方案 B:使用支持更大上下文的模型
| 模型 | 上下文窗口 |
|---|---|
| Qwen3.5-4B (当前) | 4096 tokens |
| GPT-4o | 128K tokens |
| Claude 3.5 | 200K tokens |
5. 验证切换成功
# 重启后运行简单测试,查看 token 使用量
opencode run "test" --log-level debug
生成时间: $(date)
配置位置: ~/.config/opencode/opencode.json