多代理协调技能
根据任务特征和提供商能力,将任务路由和委托给最合适的AI提供商。
变量
| 变量 | 默认 | 描述 |
|---|---|---|
| ENABLED_CLAUDE | true | 启用Claude Code作为提供商 |
| ENABLED_OPENAI | true | 启用OpenAI/Codex作为提供商 |
| ENABLED_GEMINI | true | 启用Gemini作为提供商 |
| ENABLED_CURSOR | true | 启用Cursor作为提供商 |
| ENABLED_OPENCODE | true | 启用OpenCode作为提供商 |
| ENABLED_OLLAMA | true | 启用本地Ollama作为提供商 |
| DEFAULT_PROVIDER | claude | 当路由不确定时的回退 |
| CHECK_COST_STATUS | true | 在委托前检查使用情况 |
指令
强制性 - 按顺序遵循以下工作流程步骤。不要跳过步骤。
- 在委托前,了解任务特征
- 使用模型发现技能了解当前模型名称
- 在高容量委托前检查成本/使用情况
快速决策树
这是什么类型的任务?
│
├─ 需要对话历史? ─────────► 保留在Claude(不委托)
│
├─ 需要沙盒执行? ──────────► OpenAI/Codex
│
├─ 大型上下文(>100k令牌)? ───────► Gemini
│
├─ 多模态(图像/视频)? ──────────► Gemini
│
├─ 需要网络搜索? ─────────────────► Gemini
│
├─ 快速IDE编辑? ─────────────────────► Cursor
│
├─ 需要隐私/离线? ─────────► Ollama
│
├─ 提供商不可知的回退? ─────────► OpenCode
│
└─ 一般推理/编码? ────────► Claude(默认)
红旗 - 停止并重新考虑
如果你即将:
- 在不检查提供商可用性的情况下委托
- 使用硬编码的模型名称(使用模型发现技能代替)
- 在没有用户同意的情况下向提供商发送敏感数据
- 委托需要你的对话历史的任务
- 跳过路由决策并猜测哪个提供商
停止 -> 阅读适当的食谱文件 -> 检查提供商状态 -> 然后继续
工作流程
- [ ] 分析任务:需要哪些能力?
- [ ] 检查点:咨询
reference/provider-matrix.md进行路由决策 - [ ] 检查提供商可用性:如果CHECK_COST_STATUS为true,则运行provider-check和cost-status
- [ ] 阅读所选提供商的适当食谱文件
- [ ] 检查点:确认API密钥/认证已配置
- [ ] 使用适当的上下文执行委托
- [ ] 解析并总结结果给用户
食谱
Claude Code(协调器)
- IF: 任务需要复杂推理、多文件分析或对话历史
- THEN: 在Claude Code中保留任务(你是协调器)
- WHY: 最适合架构决策、复杂重构
OpenAI / Codex
- IF: 任务需要沙盒执行或安全敏感操作
- THEN: 阅读并执行
cookbook/openai-codex.md - REQUIRES:
OPENAI_API_KEY或Codex订阅
Google Gemini
- IF: 任务涉及大型上下文(>100k令牌)、多模态(图像/视频)或网络搜索
- THEN: 阅读并执行
cookbook/gemini-cli.md - REQUIRES:
GEMINI_API_KEY或Gemini订阅
Cursor
- IF: 任务是快速IDE编辑、简单代码生成或重命名/重构
- THEN: 阅读并执行
cookbook/cursor-agent.md - REQUIRES: Cursor已安装并配置
OpenCode
- IF: 需要提供商不可知的执行或回退CLI
- THEN: 阅读并执行
cookbook/opencode-cli.md - REQUIRES: OpenCode CLI已安装并配置
Ollama(本地)
- IF: 任务需要隐私、离线操作或免费推理
- THEN: 阅读并执行
cookbook/ollama-local.md - REQUIRES: Ollama运行并已拉取模型
模型名称
不要硬编码模型版本号 - 它们很快就会过时。
要获取当前模型名称,请使用model-discovery技能:
python .claude/ai-dev-kit/skills/model-discovery/scripts/fetch_models.py
或阅读:.claude/ai-dev-kit/skills/model-discovery/SKILL.md
快速参考
| 任务类型 | 主要 | 回退 |
|---|---|---|
| 复杂推理 | Claude | OpenAI |
| 沙盒执行 | OpenAI | Cursor |
| 大型上下文(>100k) | Gemini | Claude |
| 多模态 | Gemini | Claude |
| 快速代码生成 | Cursor | Claude |
| 网络搜索 | Gemini | (网络工具) |
| 隐私/离线 | Ollama | Claude |
查看reference/provider-matrix.md以获取详细的路由指导。
工具发现
协调工具可在.claude/ai-dev-kit/dev-tools/orchestration/中找到:
# 检查提供商状态和使用情况
.claude/ai-dev-kit/dev-tools/orchestration/monitoring/cost-status.sh
# 检查CLI可用性(可选应用)
.claude/ai-dev-kit/dev-tools/orchestration/monitoring/provider-check.py
# 智能任务路由
.claude/ai-dev-kit/dev-tools/orchestration/routing/route-task.py "your task"
# 直接提供商执行
.claude/ai-dev-kit/dev-tools/orchestration/providers/claude-code/spawn.sh "task"
.claude/ai-dev-kit/dev-tools/orchestration/providers/codex/execute.sh "task"
.claude/ai-dev-kit/dev-tools/orchestration/providers/gemini/query.sh "task"
.claude/ai-dev-kit/dev-tools/orchestration/providers/cursor/agent.sh "task"
.claude/ai-dev-kit/dev-tools/orchestration/providers/opencode/execute.sh "task"
.claude/ai-dev-kit/dev-tools/orchestration/providers/ollama/query.sh "task"
输出
委托结果应该是:
- 从提供商的响应格式中解析
- 为用户总结
- 重新整合到对话上下文中
## 委托结果
**提供商**:[提供商名称]
**任务**:[简要描述]
**状态**:成功 / 部分 / 失败
### 总结
[关键发现或输出]
### 详细信息
[如果相关,完整响应]