能否重新配置 智能选择 Qwen3.5-27B和Qwen3.5-9B(9B背后其实是谷歌的Gemma4 e4b模型)的方案
完美!现在让我验证配置并展示路由表:
$ echo "📊 智能模型路由配置" && echo "========================" && cat ~/.config/opencode/oh-my-openagent.json | grep -E '"model":|description' | head -40
📊 智能模型路由配置
========================
"model": "v100-llama/Qwen3.5-27B",
"description": "主工作代理,复杂任务编排"
"model": "v100-llama/Qwen3.5-27B",
"description": "战略规划师,创建详细工作计划"
"model": "v100-llama/Qwen3.5-27B",
"description": "读-only 咨询,架构设计和调试"
"model": "v100-llama/Qwen3.5-27B",
"description": "预规划顾问,分析隐藏意图和歧义"
"model": "v100-llama/Qwen3.5-27B",
"description": "专家审查员,验证工作质量"
"model": "v100-llama/Qwen3.5-27B",
"description": "Todo 列表编排器"
"model": "4060-lms/Qwen3.5-9B",
"description": "代码库上下文搜索,需要快速响应"
"model": "4060-lms/Qwen3.5-9B",
"description": "外部文档和代码示例搜索"
"model": "v100-llama/Qwen3.5-27B",
"description": "图像/PDF分析"
"model": "v100-llama/Qwen3.5-27B",
"description": "专注任务执行,无委托能力"
"model": "v100-llama/Qwen3.5-27B",
"description": "前端、UI/UX、设计、样式"
"model": "v100-llama/Qwen3.5-27B",
"description": "真正困难的逻辑密集型任务"
"model": "v100-llama/Qwen3.5-27B",
"description": "目标导向的自主问题解决"
"model": "v100-llama/Qwen3.5-27B",
"description": "超越标准模式的复杂问题"
"model": "4060-lms/Qwen3.5-9B",
"description": "单文件修改、拼写修正"
"model": "4060-lms/Qwen3.5-9B",
"description": "不需要太多思考的任务"
"model": "v100-llama/Qwen3.5-27B",
"description": "需要大量工作的任务"
"model": "v100-llama/Qwen3.5-27B",
"description": "文档、技术写作"
✅ 智能模型路由配置完成!
📊 路由策略总览
🧠 Qwen3.5-27B (高智商 - v100-llama)
Agent/Category 用途 为什么用大模型
Sisyphus 主工作代理 复杂任务编排,需要深度推理
Prometheus 战略规划师 创建详细工作计划,分析需求
Oracle 架构咨询 高智商调试和架构设计
Metis 计划审查 识别隐藏意图和歧义
Momus 高精度审查 验证工作质量,需要精确判断
Atlas Todo 编排器 理解上下文,组织任务流
Multimodal-Looker 视觉分析 图像/PDF需要深度理解
visual-engineering UI/UX设计 创造力需求
ultrabrain 超高智商任务 复杂逻辑推理
deep 深度自主工作 全面理解和规划
artistry 创意解决问题 非常规方法探索
unspecified-high 高努力任务 需要大量思考
writing 写作任务 语言理解和表达
🚀 Gemma4 e4b (9B) (速度快 - 4060-lms)
Agent/Category 用途 为什么用小模型
Explore 代码搜索 ⚡ 速度优先,简单模式匹配
Librarian 文档检索 ⚡ 快速查找外部资源
quick 简单修改 ⚡ 单文件小改动,不需要深度思考
unspecified-low 低努力任务 ⚡ 轻量级工作
🎯 智能选择逻辑
用户请求
↓
判断任务类型
├─ 需要深度推理? → Qwen3.5-27B
├─ 需要创造力? → Qwen3.5-27B
├─ 是搜索/检索? → Gemma4 e4b (9B)
└─ 简单修改? → Gemma4 e4b (9B)
💡 使用示例
场景 1:复杂功能开发(自动用 27B)
opencode "实现一个用户认证系统,包括 JWT、OAuth2 和角色权限管理"
# → Sisyphus (27B) + Prometheus (27B) + Oracle (27B)
场景 2:快速搜索(自动用 9B)
opencode "查找项目中所有使用 useState 的地方"
# → Explore (9B) - 速度优先!
场景 3:简单修改(自动用 9B)
task(category="quick", load_skills=[], prompt="修复 typo: componet → component")
# → quick category (9B) - 快速完成
🔄 重新加载配置
立即生效:
source ~/.bashrc
opencode auth logout && opencode auth login # 如果需要刷新认证
或者简单地重启终端即可。
现在你的系统会智能选择模型:复杂任务用 Qwen3.5-27B,简单/搜索任务用 Gemma4 e4b!🎉
我订阅了opencode go套餐,已经配置添加了。现在拥有
本地算力 Qwen3.5-27B 10万上下文,无限额度
本地算力 Qwen3.5-9B 5万上下文,无限额度
opencode go套餐 40万上下文+,有限额度
请重新优化配置你的算力调度方案,尽可能利用本地算力,减少商业算力消耗
我无法确认是否全部切换到本地35B模型,因为它上下文只有10万,今天一整天我都被 sisyphus的tdd开发任务,6/7步骤时,累积到35万长度上下文,导致本地无法完成,总会崩溃
如果你可以智能的根据每次调用的上下文长度和任务难度,来选择不同的算力就好了,否则你全部切为本地的话,超过10万它又完成不了,还容易崩溃,如何解决这个问题?
┌─────────────────────────────────────────────┐
│ oh-my-openagent.json │
│ (静态配置 - 不可变) │
├─────────────────────────────────────────────┤
│ oracle → opencode-go/qwen3.5-plus │
│ prometheus → opencode-go/qwen3.5-plus │
│ momus → opencode-go/qwen3.5-plus │
│ ultrabrain → opencode-go/qwen3.5-plus │
│ │
│ explore → 4060-lms/Qwen3.5-9B │
│ librarian → 4060-lms/Qwen3.5-9B │
│ quick → 4060-lms/Qwen3.5-9B │
│ │
│ 其余所有 → v100-llama/Qwen3.5-27B │
└─────────────────────────────────────────────┘
❌ 没有运行时动态调度
❌ Sisyphus 不会"智能判断"上下文长度
// oh-my-openagent.json 已经完成的静态路由
const agentRoutes = {
// 高价值推理 → Go API (花额度买质量)
oracle: 'opencode-go/qwen3.5-plus', // 架构决策
prometheus: 'opencode-go/qwen3.5-plus', // 规划分析
momus: 'opencode-go/qwen3.5-plus', // 审查验证
ultrabrain: 'opencode-go/qwen3.5-plus', // 复杂算法
// 简单任务 → 本地9B (快速免费)
explore: '4060-lms/Qwen3.5-9B', // 代码搜索
librarian: '4060-lms/Qwen3.5-9B', // 文档查询
quick: '4060-lms/Qwen3.5-9B', // 快速修复
// 开发主力 → 本地27B (免费+大容量)
default: 'v100-llama/Qwen3.5-27B'
};