将 OpenCode 升级为多智能体协作系统让 AI 像专家团队一样协同工作前言为什么要用 Oh My OpenCode传统 AI 编程助手的痛点❌ 单线程工作效率低下❌ 容易半途而废任务执行不彻底❌ 只能处理简单任务复杂需求需要人工拆解❌ 模型选择死板无法按场景优化Oh My OpenCode 的解决方案✅多智能体并行工作多个 AI 同时处理不同子任务✅目标导向执行不达目标不停止真正的自动化✅专业分工每个智能体有自己的专长领域✅智能调度根据任务类别自动选择最合适的模型一句话概括Oh My OpenCode 把 OpenCode 从一个对话式 AI 编程工具升级为一个多智能体、可并行、强目标导向的自动化开发系统。第一章核心概念什么是 Sisyphus西西弗斯Sisyphus 是 Oh My OpenCode 的主编排器负责理解用户需求分解复杂任务调度专业智能体整合结果并持续跟进直到完成名字来源于希腊神话象征着永不言弃、持续推动的精神——这正是这个智能体的核心特质。智能体架构图┌─────────────────┐ │ 你的需求输入 │ └────────┬────────┘ ▼ ┌─────────────────┐ │ Sisyphus │ ← 主编排器 │ (总指挥) │ └────────┬────────┘ │ ┌────────────────────┼────────────────────┐ ▼ ▼ ▼ ┌─────────────────┐ ┌─────────────────┐ ┌─────────────────┐ │ Prometheus │ │ Oracle │ │ Librarian │ │ (战略规划) │ │ (架构顾问) │ │ (文档专家) │ └─────────────────┘ └─────────────────┘ └─────────────────┘ │ │ │ ▼ ▼ ▼ ┌─────────────────┐ ┌─────────────────┐ ┌─────────────────┐ │ Explore │ │ Hephaestus │ │ Atlas │ │ (代码搜索) │ │ (深度工匠) │ │ (任务指挥) │ └─────────────────┘ └─────────────────┘ └─────────────────┘任务类别机制你不需要指定用哪个模型只需要描述任务类别类别用途适合的模型visual-engineering前端开发、UI组件多模态模型deep复杂重构、深度分析推理强模型quick简单修复、格式调整响应快模型ultrabrain高难度脑力任务顶级模型第二章环境准备系统要求项目要求Node.jsv20 或更高版本Bunv1.0可选可用 npx 替代Git任意版本操作系统Windows / macOS / Linux检查已安装工具# 检查 Node.js 版本需要 v20 node --version # 检查 Git git --version如果未安装 Node.jsWindows: 下载 Node.js LTS 安装包macOS:brew install nodeLinux (Ubuntu/Debian):curl -fsSL https://deb.nodesource.com/setup_20.x | sudo -E bash - sudo apt-get install -y nodejs第三章安装 OpenCodeOpenCode 是 Oh My OpenCode 的基础运行环境。方法一npm 安装推荐# 设置官方源避免镜像问题 npm config set registry https://registry.npmjs.org # 全局安装 OpenCode npm install -g opencode-ailatest方法二官方安装脚本Linux/macOScurl -fsSL https://opencode.ai/install | bash验证安装opencode --version # 应显示 1.0.150 或更高版本Windows 特别说明如果遇到执行策略错误以管理员身份运行 PowerShellSet-ExecutionPolicy -ExecutionPolicy RemoteSigned -Scope CurrentUser第四章安装 Oh My OpenCode步骤 1安装 Bun可选可用 npx 替代macOS/Linux:curl -fsSL https://bun.sh/install | bashWindows (PowerShell):powershell -c irm https://bun.sh/install.ps1 | iex或通过 npm 安装:npm install -g bun步骤 2运行安装方式一交互式安装推荐新手bunx oh-my-opencode install # 或 npx oh-my-opencodelatest install安装程序会询问你的 AI 订阅情况根据实际情况回答即可。方式二非交互式安装已知订阅情况# 只有公司中转模型Kimi、GLM bunx oh-my-opencode install --no-tui \ --claudeno \ --openaino \ --geminino \ --kimi-for-codingyes \ --zai-coding-planyes \ --copilotno步骤 3安装成功的标志看到以下输出表示安装成功[OK] Kimi For Coding (Sisyphus/Prometheus fallback) Model Assignment Models auto-configured based on provider priority Installation complete! Run opencode to start!第五章配置公司中转模型场景说明很多公司使用内部中转 API 来统一管理 AI 模型调用例如Kimi k2.5GLM-5MiniMax M2.7DeepSeek v3.2Qwen3 Coder Plus配置文件结构Oh My OpenCode 有两个核心配置文件文件路径用途主配置~/.config/opencode/opencode.json插件加载、全局设置模型配置~/.config/opencode/oh-my-opencode.json智能体模型映射配置步骤1. 创建主配置文件# Windows notepad ~/.config/opencode/opencode.json # macOS/Linux vim ~/.config/opencode/opencode.json写入内容{ plugin: [oh-my-opencode] }2. 创建模型配置文件# Windows notepad ~/.config/opencode/oh-my-opencode.json # macOS/Linux vim ~/.config/opencode/oh-my-opencode.json3. 配置模板公司中转 API{ $schema: https://raw.githubusercontent.com/code-yeongyu/oh-my-opencode/dev/assets/oh-my-opencode.schema.json, agents: { sisyphus: { model: kimi-k2.5, provider: kimi }, oracle: { model: deepseek-v3.2, provider: kimi }, librarian: { model: MiniMax/MiniMax-M2.7, provider: minimax }, explore: { model: qwen3-coder-plus, provider: kimi }, prometheus: { model: GLM-5, provider: zai }, multimodal-looker: { model: kimi-k2.5, provider: kimi } }, categories: { visual-engineering: { model: kimi-k2.5, provider: kimi }, ultrabrain: { model: deepseek-v3.2, provider: kimi }, quick: { model: qwen3-coder-plus, provider: kimi } }, provider: { kimi: { apiKey: your-api-key, baseURL: http://your-proxy-server:port/v1, models: [kimi-k2.5, deepseek-v3.2, qwen3-coder-plus] }, zai: { apiKey: your-api-key, baseURL: http://your-proxy-server:port/v1, models: [GLM-5] }, minimax: { apiKey: your-api-key, baseURL: http://your-proxy-server:port/v1, models: [MiniMax/MiniMax-M2.7] } } }模型分配策略智能体推荐模型原因SisyphusKimi k2.5最强模型负责任务编排OracleDeepSeek v3.2深度推理能力强PrometheusGLM-5规划任务平衡性能LibrarianMiniMax M2.7快速检索成本低ExploreQwen3 Coder Plus代码搜索响应快第六章认识你的 AI 团队核心智能体一览智能体角色职责使用场景Sisyphus主编排器任务分解、调度、跟进任何复杂任务Prometheus战略规划师需求分析、计划制定需求模糊的大项目Oracle架构顾问技术决策、代码审查架构设计、Bug调试Librarian文档研究员查询文档、寻找方案API查询、技术调研Explore代码搜索员快速定位代码代码库探索Hephaestus深度工匠高质量编码复杂重构Atlas任务指挥官分发、跟踪任务多任务并行Metis智慧助手辅助决策需要第二意见时智能体调用方式隐式调用推荐使用ulw魔法词Sisyphus 自动调度ulw 帮我实现一个用户登录功能显式调用直接 某个智能体oracle 帮我分析这个架构的优缺点 librarian 查询 React 19 的新特性 explore 找到所有使用 useState 的地方第七章实战使用指南魔法词大全命令效果使用场景ulw或ultrawork满血模式并行、深度、不停止任何正式任务ultrathink深度思考模式复杂问题分析/ulw-loop自循环模式需要高完成度的任务/ralph-loopRalph 循环持续改进任务场景一理解陌生项目ulw 帮我分析这个项目的整体架构画出主要模块的依赖关系图 总结出核心业务流程和关键数据表结构。Sisyphus 会这样做派 Explore 扫描目录结构派 Librarian 分析依赖文件派 Oracle 总结架构设计整合输出完整报告场景二实现新功能ulw 实现一个深色模式切换功能要求 - 使用 CSS 变量 - 支持系统主题跟随 - 用户偏好保存到 localStorage - 包含切换按钮场景三代码重构ulw 重构 utils 目录下的所有工具函数 - 统一命名规范为 camelCase - 添加完整的 JSDoc 注释 - 抽取重复逻辑为公共函数 - 确保所有测试通过场景四自动化测试/ulw-loop 将 user-service 模块的测试覆盖率从 45% 提升到 85% 以上加上/ulw-loop后系统会持续工作直到目标达成。场景五技术调研librarian 调研以下内容并给出推荐方案 1. React 状态管理方案对比Redux/Zustand/Jotai 2. 每个方案的优缺点 3. 在我们的场景下推荐哪个场景六代码审查oracle 审查 src/components/UserProfile.tsx - 检查性能问题 - 检查潜在 bug - 检查代码规范 - 给出优化建议第八章高级玩法1. 后台代理让一个智能体执行长时任务同时继续和主智能体对话# 启动后台任务 ulw 在后台分析整个项目的性能瓶颈完成后告诉我 # 继续做其他事 ulw 帮我修复登录页面的 CSS 样式问题2. 自定义 Skills把固定工作流打包成技能一键调用。创建技能在.opencode/skills/目录下创建SKILL.md--- name: code-review description: 执行完整的代码审查流程 --- # 代码审查技能 1. 检查代码规范 2. 检查潜在 bug 3. 检查性能问题 4. 生成审查报告使用技能使用 code-review 技能审查本次提交的所有代码3. 并行任务Sisyphus 会自动并行处理可独立执行的任务ulw 为以下文件分别添加单元测试 - src/utils/string.ts - src/utils/date.ts - src/utils/validation.ts三个文件的测试会同时由不同的探索代理编写。4. 模型降级策略配置备用模型主模型不可用时自动切换fallback: { sisyphus: qwen3-coder-plus, oracle: GLM-5 }5. 缓存配置启用缓存降低成本cache: { enabled: true, ttl: 3600 }6. 速率限制避免 API 过载rateLimit: { kimi: { requestsPerMinute: 30 }, zai: { requestsPerMinute: 50 } }第九章常见问题Q1: Windows 上提示 bunx 不是内部命令解决方案使用 npx 替代powershellnpx oh-my-opencodelatest installQ2: 安装后 OpenCode 中没有显示智能体解决方案检查配置文件是否正确重启 OpenCode确认 OpenCode 版本 1.0.150Q3: 模型调用失败检查步骤# 测试 API 连接 opencode test --provider kimi # 查看已配置模型 opencode models listQ4: 公司网络无法访问 GitHub解决方案配置代理set HTTP_PROXYhttp://proxy:port或使用国内镜像安装Q5: 如何卸载 Oh My OpenCode编辑~/.config/opencode/opencode.json从plugin数组中移除oh-my-opencode。Q6: Sisyphus 不自动工作了检查是否使用了正确的魔法词尝试ulw 请继续完成未完成的任务附录配置文件模板完整配置模板公司中转 API{ $schema: https://raw.githubusercontent.com/code-yeongyu/oh-my-opencode/dev/assets/oh-my-opencode.schema.json, agents: { sisyphus: { model: kimi-k2.5, provider: kimi, temperature: 0.7 }, oracle: { model: deepseek-v3.2, provider: kimi, temperature: 0.5 }, librarian: { model: MiniMax/MiniMax-M2.7, provider: minimax, temperature: 0.3 }, explore: { model: qwen3-coder-plus, provider: kimi, temperature: 0.2 }, prometheus: { model: GLM-5, provider: zai, temperature: 0.6 }, multimodal-looker: { model: kimi-k2.5, provider: kimi }, metis: { model: kimi-k2.5, provider: kimi }, atlas: { model: deepseek-v3.2, provider: kimi } }, categories: { visual-engineering: { model: kimi-k2.5, provider: kimi }, ultrabrain: { model: deepseek-v3.2, provider: kimi }, deep: { model: deepseek-v3.2, provider: kimi }, quick: { model: qwen3-coder-plus, provider: kimi }, writing: { model: kimi-k2.5, provider: kimi } }, provider: { kimi: { apiKey: your-api-key, baseURL: http://your-proxy:port/v1, models: [kimi-k2.5, deepseek-v3.2, qwen3-coder-plus] }, zai: { apiKey: your-api-key, baseURL: http://your-proxy:port/v1, models: [GLM-5] }, minimax: { apiKey: your-api-key, baseURL: http://your-proxy:port/v1, models: [MiniMax/MiniMax-M2.7] } }, cache: { enabled: true, ttl: 3600 } }快速启动检查清单Node.js v20 已安装OpenCode 已安装 (opencode --version)Oh My OpenCode 已安装配置文件已创建并正确填写 API Key运行opencode成功启动测试ulw 你好正常响应结语Oh My OpenCode 把 AI 编程助手从“对话工具”变成了“开发伙伴”。你不是在和一个 AI 聊天而是在指挥一个由专业智能体组成的开发团队。掌握这套工具你就拥有了10 倍效率并行处理永不等待100% 完成度不达目标不停止专家级辅助每个领域都有专属顾问现在启动 OpenCode说出你的第一个ulw指令体验 AI 开发团队的力量吧参考资料Oh My OpenCode GitHubOpenCode 官方文档 本文作者在使用公司中转模型Kimi/GLM/MiniMax的环境中测试通过如有问题欢迎交流讨论。