Opencode 状态报告

Opencode 状态报告

当前运行模式:🔴 离线/本地调用模式


1. 配置信息

配置项
模型名称 custom/qwen3.5-4b-claude-4.6-opus-reasoning-distill-heretic-v3-i1
模型别名 Qwen3.5-4B
API 地址 https://openai1.atibm.com/v1
Provider Custom API (本地自定义)

2. 上下文限制分析

┌─────────────────────────────────────────────────────────────┐
│                    上下文窗口限制                             │
├─────────────────────────────────────────────────────────────┤
│ 最大上下文:4096 tokens                                      │
│                                                             │
│ 占用情况:                                                   │
│  • 系统提示词 (System Prompt)   : ~8000-10000+ tokens       │
│    - 完整指令集 + 工具定义                                          │
│  • MCP Servers (未配置):        0 tokens                    │
│  • 用户输入:                    4-12 tokens                │
│                                                             │
│ ⚠️ 结论:系统提示词已超过上下文窗口上限!                   │
└─────────────────────────────────────────────────────────────┘

3. 验证命令

# 查看配置
opencode debug config

# 列出可用模型
opencode models custom

# 查看所有 provider
opencode providers list

# 查看 MCP 服务器
opencode mcp list

4. 解决方案

方案 A:添加大模型 Provider(推荐)

  1. 登录 OpenAI(或其他平台):

    opencode providers login https://platform.openai.com/api_keys/
    
  2. 修改配置文件 ~/.config/opencode/opencode.json

    {
      "provider": {
        "openai": {},
        "custom": {...你的配置...}
      },
      "model": "openai/gpt-4o",  // 切换到大模型
      "small_model": "custom/..."
    }
    
  3. 重启 opencode

    # 停止当前服务
    # 重新启动
    opencode run "开始工作"
    

方案 B:使用支持更大上下文的模型

模型 上下文窗口
Qwen3.5-4B (当前) 4096 tokens
GPT-4o 128K tokens
Claude 3.5 200K tokens

5. 验证切换成功

# 重启后运行简单测试,查看 token 使用量
opencode run "test" --log-level debug

生成时间: $(date)
配置位置: ~/.config/opencode/opencode.json