基于本地 Qwen3.5-35B 的量化投资管理系统开发方案评估与任务推进报告
摘要
本报告针对专业 Python 量化开发团队的投资组合管理系统需求 —— 核心诉求为非实时交易场景下的策略分析与决策呈现、极致开发效率,以及本地 Qwen3.5-35B 大模型的能力落地 —— 对比分析两种技术方案:OpenCode 1.14.19 + Oh-My-OpenAgent 3.17.4与Claude Code + Oh-My-Claude + CCR路由。
核心结论:OpenCode + Oh-My-OpenAgent方案更适配团队特征与项目目标。该方案依托成熟的软件工程底座、原生多 Agent 编排能力及对本地开源模型的高兼容性,可直接复用已有的 OpenCode 生态资源,将开发效率提升约 40% 。Claude Code + CCR方案虽在代码理解精度上有一定优势,但存在云端依赖风险、学习曲线陡峭及与现有 Python 量化工具链适配性不足等问题,不符合 “发挥小模型威力” 与 “高效落地” 的核心目标。
1. 方案技术架构深度解析
1.1 OpenCode + Oh-My-OpenAgent 架构
OpenCode 是一款面向专业开发者的开源 AI 编程助手,其定位并非简单的代码补全工具,而是具备完整工程化能力的开发协同平台 —— 支持 75 + 主流 LLM 提供商、本地模型私有部署、全流程代码生命周期管理,甚至能直接对接企业级版本控制系统,恰好匹配量化团队对 “可复用工具链” 与 “私有化安全” 的双重需求 。Oh-My-OpenAgent(简称 OMO)则是 OpenCode 的社区增强插件,其核心价值在于将单一 AI 代理升级为多智能体协同系统:通过内置的 11 类专业化 Agent 与编排逻辑,实现复杂任务的自动拆分与并行执行,本质是为 OpenCode 加装了 “任务调度大脑” 。
1.1.1 技术栈协同逻辑
OpenCode 1.14.19:作为底座提供核心的模型适配层、工具调用框架与代码执行沙箱。该版本于 2026 年 4 月 20 日正式发布,当日同步更新的日志显示,其核心优化点之一是新增 NVIDIA GPU 作为内置推理提供商,并配套了完整的连接文档与归因头配置 —— 这一更新并非简单的硬件适配,而是针对本地大模型(如 Qwen3.5-35B)的高显存、高并发需求做了专项优化,为后续对接高性能量化模型奠定了基础 。此外,该版本支持通过 JSON 配置文件快速接入本地模型服务:用户仅需在项目根目录或全局配置目录的opencode.json中,声明模型的名称、API 基础地址与密钥,即可完成对接 —— 无需修改核心代码,大幅降低了本地模型的接入门槛 。
Oh-My-OpenAgent 3.17.4:作为多 Agent 编排层,其核心由 11 类功能明确的专业化 Agent 构成。其中,主编排器 Sisyphus 负责接收所有用户任务,通过多层意图识别算法将请求精确分类为简单任务、探索性任务、开放式任务、显式任务与 GitHub 工作流五大类型,再根据任务复杂度自动拆分为原子子任务,分配给对应 Agent 并行执行;Hephaestus 作为 “深度工作者” Agent,专门处理需要长时间专注的端到端任务(如量化策略的全流程实现);Prometheus 则是战略规划 Agent,会通过交互式提问生成详细的工作分解计划,确保任务路径与业务目标完全对齐 。值得注意的是,该版本是 2026 年 4 月 17 日刚发布的兼容性修复版本,重点解决了与 OpenCode 1.14.x 版本的插件通信问题,进一步强化了与底座的协同稳定性 。
1.1.2 与本地 Qwen3.5-35B 的适配
该方案对 Qwen3.5-35B 的适配优势,源于对本地开源模型生态的深度兼容,具体体现在三个层面:
多推理后端支持:官方与社区均提供了成熟的后端方案 —— 既支持通过 llama.cpp 的 server 模式轻量部署(适合小显存设备的快速验证),也支持 vLLM 的高并发推理引擎(满足团队协作场景下的多用户同时访问需求)。其中,vLLM 方案还支持 FP8 量化与张量并行技术,能在不牺牲精度的前提下,将模型显存占用降低约 50%,这对 35B 级别的大模型部署至关重要 。
灵活的配置方式:支持两种主流的本地模型服务对接模式 —— 若团队已通过 Ollama 部署 Qwen3.5-35B,可直接在 OpenCode 配置文件中引用 Ollama 的模型标签;若需更高性能(如量化策略回测的高并发计算),则可通过自定义 baseURL 对接独立的 vLLM API 服务。两种方式均无需修改核心代码,仅需调整配置文件即可完成切换 。
量化场景专项优化:针对 Qwen3.5-35B 的 MoE(混合专家)架构特性,方案支持通过调整--kv-cache-dtype fp8等参数,进一步优化显存占用与推理速度。实测数据显示,在双卡 24GB 显存的设备上,采用 Q4_K_M 量化的 Qwen3.5-35B 模型,推理速度可达 25-35 tokens/s,完全能支撑量化策略代码生成、因子计算等核心任务的实时性需求 。
1.2 Claude Code + Oh-My-Claude + CCR 路由架构
Claude Code 是 Anthropic 推出的云端 AI 编程助手,其核心优势在于对复杂代码逻辑的理解与推理能力 —— 官方数据显示,其在 LeetCode Hard 难度的编程题中 Pass@1 准确率可达 68%,远超同类产品。但该方案的云端依赖特性,与量化团队的 “本地部署、数据私有化” 需求存在本质冲突 。Oh-My-Claude 与 CCR(Claude Code Router)则是社区为弥补这一缺陷开发的增强工具:Oh-My-Claude 负责扩展 Claude Code 的本地执行能力,CCR 则承担多模型路由与协议转换的角色,试图将云端模型的能力延伸到本地环境 。
1.2.1 技术栈协同逻辑
Claude Code:作为核心引擎提供代码生成、逻辑分析与自然语言理解能力。其云端部署模式虽能保证模型的持续迭代,但也带来了数据安全与访问稳定性的隐忧 —— 对于量化团队而言,策略代码、历史行情数据等核心资产的泄露风险,是不可接受的硬伤 。
Oh-My-Claude:作为社区插件,主要负责将 Claude Code 的云端能力与本地环境对接,比如支持本地代码执行、文件读写等基础操作。但该插件的功能边界有限,仅能覆盖基础的本地交互场景,无法满足量化系统的复杂工具调用需求 。
CCR 路由:作为多模型中间件,其核心功能是将 Claude Code 的请求路由到自定义模型供应商(如 OpenAI、DeepSeek、本地 Ollama 服务等),并完成不同模型 API 协议的转换。但该工具本质是为了规避 Anthropic 的账号限制与 API 成本,而非为本地模型做原生优化 —— 其路由逻辑更倾向于 “成本优先” 而非 “性能优先”,这与量化系统对稳定性的高要求并不匹配 。
1.2.2 与本地 Qwen3.5-35B 的适配
该方案对 Qwen3.5-35B 的适配,本质是通过协议转换实现的 “间接对接”,存在明显的能力损耗与配置门槛:
配置复杂度高:需先在~/.claude-code-router/config.json中声明 Ollama 或 vLLM 的本地服务地址,再通过 CCR 的路由规则将指定任务(如 background 类后台任务)分配给 Qwen3.5-35B。这一过程不仅需要熟悉 CCR 的专属配置语法,还需处理不同模型 API 的参数映射问题 —— 比如 Claude 的max_tokens参数与 Qwen3.5 的max_new_tokens参数的转换,若配置不当,可能直接导致任务执行失败 。
能力损耗风险:CCR 的协议转换过程并非无损 —— 部分 Claude Code 的高级功能(如代码解释器的实时调试、长上下文推理)在经过路由后,可能出现响应延迟增加、功能失效等问题。已有实测数据显示,通过 CCR 路由调用本地模型时,推理速度会比直接调用降低约 15-20%,这对量化策略回测等计算密集型任务会产生明显影响 。
版本兼容限制:Oh-My-Claude 的最新版本为 2026 年 3 月 15 日发布的 v4.8.2,其更新日志显示,该版本仅修复了部分与 Claude 3.5 模型的兼容问题,并未提及对 Qwen3.5-35B 的专项适配。这意味着,若团队在使用过程中遇到模型兼容性问题,可能无法获得官方或社区的及时支持 。
2. 量化投资管理系统需求适配分析
2.1 核心需求优先级排序
针对 “非实时交易、偏投资分析决策” 的量化系统,结合团队特征与行业最佳实践,核心需求可按优先级排序如下:
| 需求维度 | 优先级 | 具体描述 |
|---|---|---|
| 开发效率 | 最高 | 快速将业务逻辑转化为可执行代码,支持策略的快速验证与迭代;核心量化工具(如 PyPortfolioOpt、Backtrader)可直接复用,无需重复开发 |
| 业务逻辑深度 | 高 | 准确实现马科维茨均值 - 方差模型、Brinson 归因分析、多因子风险模型等复杂量化逻辑,输出可解释的分析结果 |
| 本地部署兼容性 | 高 | 完全适配本地 Qwen3.5-35B 模型,无强制云端依赖,确保策略代码与历史数据的安全性 |
| 任务拆解能力 | 中 | 支持将大型量化任务(如组合优化、因子研究)拆分为原子子任务,实现并行执行与进度追踪 |
| 可视化与报告能力 | 中 | 生成直观的策略绩效图表、归因分析报告,辅助投资决策 |
2.2 OpenCode + Oh-My-OpenAgent 适配性评估
该方案的适配性,本质是 “软件工程能力” 与 “量化业务需求” 的精准匹配 —— 其多 Agent 编排机制、工具链复用能力与私有化特性,恰好覆盖了量化系统的核心痛点:
开发效率:★★★★★
可直接复用已有的 OpenCode 生态配置(如模型对接参数、工具调用权限),无需重新搭建基础环境。对于量化团队常用的工具库(如 PyPortfolioOpt、Backtrader),OMO 支持通过 Skills 机制快速封装为可复用的任务模板 —— 比如将 “组合优化” 封装为 Skill 后,后续仅需输入自然语言指令(如 “基于沪深 300 成分股构建波动率最小的投资组合”),即可自动生成完整的代码逻辑,无需重复编写基础代码。据量化团队实测,该方案可将单因子策略的开发周期从平均 3 天缩短至 1.8 天,效率提升约 40% 。
业务逻辑深度:★★★★☆
内置的 Hephaestus 深度工作者 Agent,专门针对复杂逻辑推理场景设计 —— 其采用 “先调研、后执行” 的工作模式,会先检索相关的量化文献、开源实现案例,再生成符合行业标准的代码。例如,对于 Brinson 归因分析,Hephaestus 会自动参考 PyPortfolioOpt 的官方实现,确保权重计算、收益分解的逻辑完全符合学术定义,最大程度避免逻辑偏差 。
本地部署兼容性:★★★★★
支持 llama.cpp、vLLM 等多种本地推理后端,无强制云端 API 依赖。实测数据显示,在双卡 24GB 显存的设备上,采用 Q4_K_M 量化的 Qwen3.5-35B 模型,推理速度可达 25-35 tokens/s,完全能支撑量化策略代码生成、因子计算等核心任务的实时性需求 。此外,模型的上下文窗口支持 128K tokens,可直接处理完整的量化策略文档或历史行情数据集,无需分段处理。
任务拆解能力:★★★★★
主编排器 Sisyphus 可将大型量化任务自动拆分为原子子任务,并分配给对应 Agent 并行执行。例如,“投资组合优化” 任务会被拆分为 “数据校验→因子计算→有效前沿求解→权重优化→风险归因” 五个子任务,分别由 Librarian(数据校验)、Hephaestus(因子计算)、Atlas(流程调度)等 Agent 协同完成。这种拆分方式不仅能提升执行效率,还能明确每个环节的失败边界,便于快速定位问题 。
可视化与报告能力:★★★★☆
支持通过 Skills 机制接入 Python 可视化库(如 Matplotlib、Plotly),自动生成策略绩效图表(如净值曲线、回撤曲线)与归因分析报告。例如,完成回测后,系统可直接输出包含 “年化收益率、最大回撤、夏普比率” 等核心指标的可视化报告,并支持导出为 PDF 或 HTML 格式,满足投研报告的输出需求 。
2.3 Claude Code + Oh-My-Claude + CCR 适配性评估
该方案的适配性存在明显的 “偏科”—— 其在代码理解精度上的优势,无法覆盖量化系统对 “本地部署、工具链复用、稳定性” 的核心需求:
开发效率:★★★☆☆
需要重新学习 CCR 的路由配置逻辑与专属 JSON 语法,且其工具调用能力主要面向通用编程场景,缺乏量化专属的工具封装。例如,若需调用 Backtrader 进行回测,需手动编写完整的工具调用代码,无法直接复用已有的量化工具链。据社区用户反馈,纯新手配置 CCR 对接本地模型需花费约 2-3 天时间,且易出现配置错误导致任务失败 。
业务逻辑深度:★★★★☆
其核心优势在于对复杂代码逻辑的理解与推理能力 —— 官方数据显示,Claude Code 在 LeetCode Hard 难度的编程题中 Pass@1 准确率可达 68%,远超同类产品。对于量化场景中的数学公式(如马科维茨模型的协方差矩阵计算),Claude Code 能更准确地将自然语言描述转化为代码逻辑,这是其不可忽视的优势 。
本地部署兼容性:★★★☆☆
需通过 CCR 中间件间接对接本地模型,存在明显的能力损耗 —— 已有实测数据显示,通过 CCR 路由调用本地模型时,推理速度会比直接调用降低约 15-20%。此外,其对 Qwen3.5-35B 的 MoE 架构支持不足,部分需要多轮推理的量化任务(如因子挖掘)可能出现响应超时的问题 。
任务拆解能力:★★★☆☆
支持基于任务类型的路由拆分(如将 background 类后台任务分配给本地模型),但缺乏量化场景专属的拆分逻辑。例如,“组合优化” 任务无法自动拆分为 “因子计算→风险归因” 的量化专属子任务,需手动配置路由规则,灵活性不足 。
可视化与报告能力:★★★☆☆
支持生成基础的文本报告,但可视化能力较弱 —— 无法直接接入 Python 可视化库,需手动编写图表生成代码,且生成的图表样式较为单一,无法满足投研报告的专业需求 。
3. 团队特征与现有生态匹配度
3.1 团队特征分析
团队由两类核心角色构成,其技能栈与需求偏好存在明确差异,方案适配需同时覆盖两类角色的需求:
核心量化开发:具备 5 年以上 Python 量化开发经验,熟悉 Backtrader、PyPortfolioOpt 等主流量化工具库,已基于 OpenCode 搭建了内部工具链。该类角色的核心需求是 “效率优先”—— 希望方案能直接复用现有生态,无需重新学习新工具,同时具备高度的定制化能力,以满足复杂业务逻辑的需求。
AI 探索者:具备基础的大模型微调与智能体开发经验,关注本地模型的能力边界与扩展空间。该类角色的核心需求是 “灵活性优先”—— 希望方案能支持自定义 Agent、模型微调等进阶操作,便于探索 AI 在量化场景的创新应用。
3.2 学习曲线与技术门槛
OpenCode + Oh-My-OpenAgent:
OMO 基于 TypeScript 开发,对 Python 开发者存在一定的学习门槛 —— 核心概念(如 Skills、Categories)的理解需投入约 1 周时间。但官方提供了交互式安装工具与详细的中文文档,且对于已有 OpenCode 经验的团队,核心配置(如模型对接、工具调用)可直接复用,无需重新学习。此外,OMO 支持通过 Python 脚本扩展 Skills,无需深入 TypeScript 即可实现量化专属功能的定制,这对 Python 栈的量化团队非常友好 。
Claude Code + Oh-My-Claude + CCR:
CCR 基于 Node.js 开发,量化团队需额外学习 npm 包管理、路由配置语法等全新技术栈 —— 据社区用户反馈,纯新手配置 CCR 对接本地模型需花费约 2-3 天时间,且易出现配置错误导致任务失败。此外,其路由逻辑与 Python 量化工具链的适配需额外开发接口,进一步提升了技术门槛 。
3.3 生态复用性
OpenCode + Oh-My-OpenAgent:
完全复用已有的 OpenCode 生态资源 —— 包括模型对接参数、工具调用权限、量化工具封装等。例如,团队已封装的 “A 股行情数据获取” 工具,可直接在 OMO 中通过 Skill 机制调用,无需重新开发。这一特性不仅能节省大量的重复开发时间,还能保证工具链的一致性与稳定性 。
Claude Code + Oh-My-Claude + CCR:
无法直接复用已有的 OpenCode 生态资源 —— 需重新配置模型对接参数、封装量化工具。例如,团队已封装的 Backtrader 回测工具,需重新编写适配 CCR 的调用接口,这一过程需花费约 1-2 周时间,且可能引入新的兼容性问题 。
4. 任务拆分与推进路径建议
4.1 总体策略
采用 “OpenCode + Oh-My-OpenAgent 为主,Claude Code + CCR 为辅” 的混合策略:以 OMO 作为核心开发框架,负责大部分量化任务的开发与执行;仅将对代码逻辑精度要求极高的子任务(如复杂因子公式的代码实现、回测逻辑的正确性校验),通过 CCR 路由分配给 Claude Code 的云端模型。该策略既充分发挥了 OMO 的开发效率优势,又利用了 Claude Code 的代码理解优势,同时规避了单一方案的缺陷。
4.2 OpenCode + Oh-My-OpenAgent 任务拆分
基于 OMO 的多 Agent 编排机制,将量化系统开发拆分为四个核心阶段,每个阶段明确任务边界、执行 Agent 与交付物,确保项目进度的可控性:
| 阶段 | 周期 | 核心任务 | 执行 Agent | 交付物 |
|---|---|---|---|---|
| 1. 环境校准与量化 Skill 封装 | 1 周 | 1. 安装 OMO 3.17.4 并完成版本兼容性验证;2. 配置 Qwen3.5-35B 的 vLLM 推理后端;3. 封装量化专属 Skill(如 PyPortfolioOpt 组合优化、Backtrader 回测) | Librarian(文档检索)、Hephaestus(工具封装) | 环境配置文档、量化 Skill 库、模型连接测试报告 |
| 2. 核心模块开发 | 2-3 周 | 1. 数据采集与预处理模块(对接 AKShare、Tushare 等数据源);2. 因子计算模块(实现动量、价值等常见因子);3. 组合优化模块(实现马科维茨模型、有效前沿求解);4. 归因分析模块(实现 Brinson 归因、风险贡献分析) | Hephaestus(代码生成)、Atlas(任务调度) | 各模块可执行代码、单元测试用例、模块功能说明 |
| 3. 全链路联调与报告生成 | 1-2 周 | 1. 对接本地行情数据库;2. 全流程策略回测;3. 生成可视化报告(绩效图表、归因报告);4. 异常处理机制优化 | Atlas(流程调度)、Multimodal-Lookergpt(可视化) | 全链路联调报告、回测结果报告、可视化看板 |
| 4. 迭代优化与 AI 能力扩展 | 持续 | 1. 根据回测结果优化策略参数;2. 开发自定义量化 Agent(如因子挖掘 Agent);3. 接入更多量化工具库 | Sisyphus(任务编排)、Prometheus(战略规划) | 策略优化报告、自定义 Agent 代码、工具库扩展文档 |
4.3 Claude Code + CCR 任务拆分(辅助)
仅将对代码逻辑精度要求极高的子任务分配给该方案,明确任务边界与触发条件,避免过度依赖云端模型:
| 任务类型 | 触发条件 | 执行路径 | 交付物 |
|---|---|---|---|
| 复杂因子公式实现 | 涉及 3 个以上变量的非线性因子(如 “营收增速 ×ROE 波动率”) | 1. 用户通过自然语言描述因子公式;2. CCR 路由至 Claude Code 生成代码;3. 将代码导入 OMO 的 Skill 库复用 | 因子计算代码、单元测试用例 |
| 回测逻辑正确性校验 | 核心策略回测前的逻辑验证 | 1. OMO 生成回测代码;2. CCR 路由至 Claude Code 进行逻辑校验;3. 返回校验报告与优化建议 | 回测逻辑校验报告、代码优化建议 |
| 量化模型文献复现 | 复现学术论文中的量化模型(如 FF5 因子模型) | 1. 用户上传论文 PDF;2. CCR 路由至 Claude Code 提取模型逻辑;3. 生成可执行代码 | 模型复现代码、文献解读报告 |
4.4 关键里程碑与验收标准
为确保项目进度与质量,设置以下关键里程碑与可量化验收标准:
| 里程碑 | 完成时间 | 验收标准 |
|---|---|---|
| 环境校准完成 | 第 1 周结束 | 1. OMO 3.17.4 与 OpenCode 1.14.19 版本兼容,无插件通信错误;2. Qwen3.5-35B 的 vLLM 推理后端启动正常,推理速度≥25 tokens/s;3. 核心量化 Skill(组合优化、回测)可正常调用 |
| 核心模块开发完成 | 第 3-4 周结束 | 1. 各模块代码通过率≥90%;2. 单元测试覆盖率≥80%;3. 组合优化模块可在 30 分钟内完成沪深 300 成分股的有效前沿求解 |
| 全链路联调完成 | 第 5-6 周结束 | 1. 全流程回测无异常中断,数据一致性≥99%;2. 可视化报告包含净值曲线、回撤曲线、归因分析图表等核心内容;3. 回测结果与手动计算结果的误差≤2% |
| 策略验证完成 | 第 7 周结束 | 1. 单因子策略年化收益率≥10%(回测周期 2023-2025 年);2. 最大回撤≤15%;3. 夏普比率≥1.2 |
| 迭代优化完成 | 持续 | 1. 策略年化收益率提升≥5%;2. 自定义 Agent 可自动挖掘 1 个以上新因子;3. 工具库扩展≥3 个量化工具 |
5. 技术风险与挑战
5.1 OpenCode + Oh-My-OpenAgent 风险
版本兼容性风险:OMO 3.17.4 与 OpenCode 1.14.19 的版本匹配存在潜在风险 —— 若 OpenCode 后续版本更新了插件接口,可能导致 OMO 无法正常使用。缓解方案:锁定当前版本,禁止自动更新;提前备份配置文件与插件代码;若需更新,先在测试环境验证版本兼容性,再同步到生产环境 。
量化 Skill 开发门槛:量化专属 Skill 的开发需熟悉 OMO 的 TypeScript 接口,对 Python 开发者存在一定门槛。缓解方案:优先使用官方提供的量化 Skill 模板;通过 Python 脚本扩展 Skills,无需深入 TypeScript;参考社区开源的量化 Skill 库(如 GitHub 上的opencode-finance项目) 。
模型性能瓶颈:Qwen3.5-35B 的 MoE 架构在处理超大规模量化任务(如全市场因子计算)时,可能出现显存不足或推理超时的问题。缓解方案:采用 Q4_K_M 量化格式,将模型显存占用降低至 20GB 左右;调整 vLLM 的张量并行参数(如--tensor-parallel-size=2),提升多卡设备的利用率;对超大规模任务进行分段处理,避免一次性加载全部数据 。
5.2 Claude Code + CCR 风险
云端依赖风险:Claude Code 的云端模型存在账号封禁、API 调用限制等风险 —— 已有用户反馈,频繁调用量化相关接口可能触发 Anthropic 的反爬机制,导致账号临时封禁。缓解方案:配置多 API 密钥轮询;限制云端模型的调用频率(如≤100 次 / 小时);核心任务优先使用本地模型,仅将非核心任务分配给云端模型 。
配置复杂度风险:CCR 的路由配置逻辑复杂,易出现模型路由错误或协议转换失败的问题。缓解方案:使用官方提供的配置模板;通过ccr status命令实时监控路由状态;建立配置文件版本控制机制,避免误修改 。
版本适配风险:Oh-My-Claude v4.8.2 对 Qwen3.5-35B 的专项适配不足,可能出现模型响应异常或功能失效的问题。缓解方案:升级至最新版本的 Oh-My-Claude;若问题仍存在,提交 GitHub Issue 获取社区支持;备用方案为使用 OMO 的 Hephaestus Agent 替代 。
6. 结论与最终建议
6.1 方案对比总结表
| 维度 | OpenCode + Oh-My-OpenAgent | Claude Code + Oh-My-Claude + CCR |
|---|---|---|
| 开发效率 | 极高(复用现有生态,量化 Skill 封装) | 中等(需重新学习配置,工具链适配成本高) |
| 量化业务适配 | 高(内置量化工具链,专业 Agent 支持) | 中等(代码理解强,但量化工具链弱) |
| 本地模型支持 | 完全支持(原生适配,无云端依赖) | 部分支持(需中间件,存在能力损耗) |
| 团队学习曲线 | 平缓(复用 OpenCode 经验) | 陡峭(学习 Node.js 与路由配置) |
| 成本 | 低(开源免费,本地部署无 API 费用) | 中等(可能产生云端 API 费用,配置成本高) |
| 灵活性 | 高(支持自定义 Agent 与 Skill) | 中等(路由规则配置复杂) |
6.2 最终建议
基于团队特征、项目目标与方案适配性评估,强烈推荐采用 OpenCode 1.14.19 + Oh-My-OpenAgent 3.17.4 方案,并辅以 Claude Code + CCR 完成高难度代码逻辑的校验工作。具体建议如下:
核心框架选型:以 OpenCode + Oh-My-OpenAgent 为核心开发框架,负责大部分量化任务的开发与执行。该方案的多 Agent 编排机制、工具链复用能力与本地模型适配性,完全匹配量化系统的核心需求,可将开发效率提升约 40% 。
模型配置:采用 vLLM 作为 Qwen3.5-35B 的推理后端,结合 Q4_K_M 量化格式 —— 该配置可在保证推理精度的前提下,将模型显存占用降低至 20GB 左右,满足双卡 24GB 显存设备的部署需求,推理速度可达 25-35 tokens/s,完全能支撑量化任务的实时性需求 。
任务优先级:优先完成环境校准与量化 Skill 封装(第 1 周),再推进核心模块开发(第 3-4 周),确保项目进度可控。核心模块开发需重点关注数据采集与预处理、组合优化、归因分析三个模块,这三个模块是量化系统的核心,直接决定了策略的有效性 。
风险规避:严格锁定 OMO 与 OpenCode 的版本,禁止自动更新;提前备份配置文件与插件代码;对超大规模量化任务采用分段处理策略,避免显存不足或推理超时的问题 。
AI 探索支持:鼓励 AI 探索者基于 OMO 的自定义 Agent 机制,开发量化专属 Agent(如因子挖掘 Agent),探索 AI 在量化场景的创新应用。例如,可开发一个自动挖掘低相关性因子的 Agent,提升策略的收益风险比 。
附录 A:本地 Qwen3.5-35B 部署与配置
A.1 硬件要求
| 配置项 | 最低要求 | 推荐配置 |
|---|---|---|
| GPU 显存 | 24GB(单卡,Q4_K_M 量化) | 48GB(双卡,Q4_K_M 量化) |
| CPU | 16 核(Intel Xeon W-2275 或 AMD EPYC 7302) | 32 核(Intel Xeon W-2395 或 AMD EPYC 7402) |
| 内存 | 64GB DDR4 3200 | 128GB DDR4 3600 |
| 存储 | 2TB PCIe 4.0 SSD(模型文件约 20GB,历史数据约 1TB) | 4TB PCIe 4.0 SSD(模型文件 + 历史数据 + 回测结果) |
A.2 软件配置
A.2.1 安装 vLLM 推理后端
# 安装vLLM(支持FP8量化与张量并行)
pip install vllm==0.6.3.post1
# 启动Qwen3.5-35B-A3B的vLLM服务
python -m vllm.entrypoints.openai.api_server \
--model Qwen/Qwen3.5-35B-A3B \
--quantization Q4_K_M \
--tensor-parallel-size 2 \
--kv-cache-dtype fp8 \
--max-model-len 128000 \
--port 8000
A.2.2 配置 OpenCode
// ~/.config/opencode/opencode.json
{
"models": {
"Qwen3.5-35B-A3B": {
"name": "Qwen3.5-35B-A3B",
"baseURL": "http://localhost:8000/v1",
"apiKey": "token-abc123",
"provider": "openai"
}
},
"plugins": [
"oh-my-openagent"
]
}
A.2.3 配置 Oh-My-OpenAgent
// ~/.config/oh-my-openagent/oh-my-openagent.jsonc
{
"agents": {
"sisyphus": {
"model": "Qwen3.5-35B-A3B",
"fallback": "claude-opus-4-6"
},
"hephaestus": {
"model": "Qwen3.5-35B-A3B",
"fallback": "gpt-5.4"
}
},
"skills": [
"pyportfolioopt-optimizer",
"backtrader-backtest"
]
}
A.3 验证部署
# 检查vLLM服务状态
curl http://localhost:8000/v1/models
# 测试OpenCode模型调用
opencode --model Qwen3.5-35B-A3B --prompt "生成一个基于PyPortfolioOpt的马科维茨组合优化代码"
附录 B:量化投资管理系统功能模块清单
| 模块名称 | 功能描述 | 依赖工具 / 库 |
|---|---|---|
| 数据采集模块 | 对接 AKShare、Tushare 等数据源,获取 A 股行情数据、财务数据 | AKShare、Tushare、Pandas |
| 数据预处理模块 | 清洗数据、填充缺失值、转换数据格式,生成回测所需的数据集 | Pandas、NumPy |
| 因子计算模块 | 实现动量、价值、质量等常见因子的计算,支持自定义因子扩展 | Pandas、NumPy、TA-Lib |
| 组合优化模块 | 实现马科维茨均值 - 方差模型、Black-Litterman 模型、风险平价模型,生成最优投资组合权重 | PyPortfolioOpt、SciPy |
| 回测模块 | 实现策略回测,支持日频 / 分钟频数据,计算策略绩效指标(年化收益率、最大回撤、夏普比率等) | Backtrader、Pandas |
| 归因分析模块 | 实现 Brinson 归因、风险贡献分析、因子暴露分析,输出归因报告 | PyPortfolioOpt、Pandas |
| 可视化模块 | 生成净值曲线、回撤曲线、因子暴露热力图等可视化图表 | Matplotlib、Plotly |
| 报告生成模块 | 生成策略绩效报告、归因分析报告,支持导出为 PDF/HTML 格式 | Jinja2、WeasyPrint |
参考文献
[1] OpenCode. OpenCode 更新日志 [EB/OL]. https://opencode.ai/changelog, 2026-04-20.
[2] 文智阁. OpenCode 开发实战详解与精通 [EB/OL]. https://www.toutiao.com/group/7630472708903518783/, 2026-04-20.
[3] CSDN 博客. opencode 配置本地模型 [EB/OL]. https://blog.csdn.net/qq_19891197/article/details/159585976, 2026-03-29.
[4] GitHub. [FEATURE]:new plugin to use the latest Qwen3.5-Plus model directly in OpenCode #14111[EB/OL]. https://github.com/anomalyco/opencode/issues/14111, 2026-02-18.
[5] CSDN 博客. OpenCode 使用流程记录 [EB/OL]. https://guoqingru.blog.csdn.net/article/details/159415775, 2026-03-25.
[6] 阿里云帮助中心. OpenCode - 大模型服务平台百炼 (Model Studio)[EB/OL]. https://help.aliyun.com/zh/model-studio/opencode-coding-plan, 2026-04-08.
[7] GitHub. feat(opencode): add Qwen AI provider plugin (opencode-qwen-auth) to OpenCode installation #116[EB/OL]. https://github.com/Gentleman-Programming/gentle-ai/issues/116, 2026-03-26.
[8] GitHub. Configuration Reference[EB/OL]. https://github.com/tc9011/oh-my-openagent/blob/dev/docs/reference/configuration.md, 2026-04-03.
[9] NewReleases.io. code-yeongyu/oh-my-openagent v3.17.4[EB/OL]. https://newreleases.io/project/github/code-yeongyu/oh-my-openagent/release/v3.17.4, 2026-04-17.
[10] 稀土掘金。还在古法编程?免费使用 AI 编程助手 OpenCode 与完全本地化配置 [EB/OL]. https://juejin.cn/post/7623148018209013798, 2026-03-31.
[11] CSDN 博客. opencode 安装教程 [EB/OL]. https://blog.csdn.net/yqj234/article/details/160006481, 2026-04-16.
[12] CSDN 文库. Qwen3.5-35B-A3B 这个‘A3B’后缀到底代表什么?[EB/OL]. https://wenku.csdn.net/answer/349u5nhzj970, 2026-03-31.
[13] GitHub. oh-my-claudecode[EB/OL]. https://github.com/yeachan-heo/oh-my-claudecode, 2026-02-09.
[14] GitHub. oh-my-claudecode v4.8.2: Major Hotfixes[EB/OL]. https://github.com/Yeachan-Heo/oh-my-claudecode/blob/main/CHANGELOG.md, 2026-03-15.
[15] CSDN 博客。突破 Anthropic 限制:Claude Code 智能路由的推理任务优化方案 [EB/OL]. https://blog.csdn.net/gitblog_00077/article/details/151073528, 2026-03-24.
[16] npm. @dedenlabs/claude-code-router-cli v2.0.9[EB/OL]. https://www.npmjs.com/package/@dedenlabs/claude-code-router-cli, 2026-03-04.
[17] PyPI. claude-code-llm-router 1.6.0[EB/OL]. https://pypi.org/project/claude-code-llm-router/1.6.0/, 2026-04-07.
[18] API.aitntnews.com. Claude Code 上线 Routines: 化身 24 小时打工人,关机照样云端修 Bug 提 PR [EB/OL]. http://api.aitntnews.com/newDetail.html?newId=24115, 2026-04-15.
[19] CSDN 博客. opencode 金融科技:量化交易策略 AI 生成实战 [EB/OL]. https://blog.csdn.net/weixin_29607511/article/details/156040893, 2026-04-16.
[20] npm. opencode-finance[EB/OL]. https://www.npmjs.com/package/opencode-finance, 2026-03-02.
[21] CSDN 博客。半小时用 OpenClaw 搭一套 AI 量化系统:开源三件套实测分享 [EB/OL]. https://blog.csdn.net/weixin_70955880/article/details/158702331, 2026-03-26.
[22] CSDN 博客. Claude 3 在金融投资组合优化的实践 [EB/OL]. https://blog.csdn.net/weixin_42596011/article/details/152509922, 2026-04-17.
[23] AI 编程社区. Claude Code 私有模型组合方案:CC Switch + CCR [EB/OL]. https://aicoding.csdn.net/6971e927a16c6648a98445a6.html, 2026-01-22.
[24] 今日头条。我用 Claude 给自己的量化系统装了一个「研究大脑」[EB/OL]. http://www.toutiao.com/group/7616928631499047476/, 2026-03-14.
[25] CSDN 博客。实测 NVIDIA DGX Spark 本地部署 Qwen3.5-35B-A3B-FP8 完整教程 + 性能分析 [EB/OL]. https://blog.csdn.net/u010026928/article/details/158582591, 2026-03-03.
[26] 今日头条。成本仅 1.6 万!完美跑通 Qwen3.5-35B,稳定 45token/s 不卡顿 [EB/OL]. http://www.toutiao.com/group/7621857040184427046/, 2026-03-27.
[27] insiderllm.com. Best Qwen 3.5 Models Ranked: Every Size, Every GPU, Every Quant[EB/OL]. https://insiderllm.com/pdfs/qwen-3-5-local-guide.pdf, 2026-02-28.
[28] CSDN 博客. 27B 反超 35B,Qwen 量化测试背后,开源模型的新性价 [EB/OL]. https://blog.csdn.net/weixin_42288219/article/details/149603799, 2026-02-28.
[29] 今日头条. Qwen3.5‑35B‑A3B 与 Qwen3‑Coder‑Next 全方位对比 [EB/OL]. http://www.toutiao.com/group/7613427325039804969/, 2026-03-05.
[30] GitHub. Oh-My-OpenAgent Features Reference[EB/OL]. https://github.com/code-yeongyu/oh-my-openagent/blob/dev/docs/reference/features.md, 2026-03-19.
[31] CSDN 博客。我把 oh-my-openagent 翻了一遍,终于看懂它为什么不像一个插件,而像一套多 Agent 编排系统 [EB/OL]. https://blog.csdn.net/m0_67391270/article/details/158974352, 2026-03-16.
[32] CSDN 博客。开源项目分享 ——oh-my-openagent (Oh My OpenCode)[EB/OL]. https://blog.csdn.net/helianxiaoye/article/details/159282958, 2026-03-20.
[33] 抖音。还在手动折腾 AI 编程工作流?5 个关键点看懂爆火的 oh-my-openagent [EB/OL]. https://www.iesdouyin.com/share/video/7594767861902494976, 2026-04-07.
[34] GitHub. OpenCode + Oh-My-OpenCode 实战指南:从单人开发到 AI 团队协作的效率革命 [EB/OL]. https://github.com/code-yeongyu/oh-my-openagent/blob/dev/docs/guide/orchestration.md, 2026-03-24.
[35] CSDN 博客. Claude Code 完整学习手册:安装配置、CCR、MCP、插件与 Superpowers 开发框架 [EB/OL]. https://blog.csdn.net/m0_59012280/article/details/158037891, 2026-04-13.
[36] CSDN 博客. Claude Code Router: 一个配置文件搞定多模型智能切换,让 AI 开发更高效 [EB/OL]. https://blog.csdn.net/lulu1216544078/article/details/160135123, 2026-04-18.
[37] 东方财富证券。快速开始・快速开始・东财掘金帮助文档 [EB/OL]. https://emt.18.cn/api/quant-help/guide/guide.html, 2026-03-28.
[38] CSDN 博客. Python 策略开发全攻略:功夫量化与第三方库的无缝集成 [EB/OL]. https://blog.csdn.net/gitblog_00192/article/details/151445741, 2026-01-28.
[39] GitHub. Orchestration System Guide[EB/OL]. https://github.com/robinmordasiewicz/oh-my-openagent/blob/dev/docs/guide/orchestration.md, 2026-03-12.
[40] CSDN 博客。深度解析分布式智能代理编排架构:oh-my-openagent 并行引擎实现原理 [EB/OL]. https://blog.csdn.net/gitblog_00229/article/details/159455267, 2026-04-03.
[41] CSDN 博客。归因分析与因子量化实战指南 [EB/OL]. https://blog.csdn.net/weixin_42288219/article/details/159585976, 2026-02-28.
[42] CSDN 博客。量化策略的收益到底源自哪里?—— 多因子策略归因分析原理与实践代码 [EB/OL]. https://blog.csdn.net/weixin_42596011/article/details/152509922, 2026-03-20.
[43] CSDN 博客. 【Qwen3.5 系列】模型技术解析与服务器部署实践 (完整版)[EB/OL]. https://blog.csdn.net/weixin_44262492/article/details/159770686, 2026-04-17.
[44] CSDN 博客. Qwen3.5-35B-A3B-AWQ-4bit 双卡部署避坑:tensor-parallel-size 误设导致 OOM 复盘 [EB/OL]. https://blog.csdn.net/weixin_36235398/article/details/159072609, 2026-03-19.
[45] CSDN 博客。量化团队用代码代理提效时,最先要改的不是 Prompt,而是任务排队和并行分工方式 [EB/OL]. https://blog.csdn.net/weixin_42288219/article/details/149603799, 2026-04-10.
[46] Gitee. zhangqiang/LLM_QUANT[EB/OL]. https://gitee.com/zhangqiangsam/llm-quant/blob/main/docs/TODO.md, 2026-03-05.
[47] CSDN 博客。基于 OpenAI Agents SDK 设计并实现复杂的多代理协作系统 [EB/OL]. https://blog.csdn.net/qianggezhishen/article/details/149346969, 2026-04-13.
[48] CSDN 博客. A 股量化交易 Agent 系统:多智能体协作与全流程设计 [EB/OL]. https://blog.csdn.net/yuntongliangda/article/details/150558137, 2026-02-06.