多代理协调Skill multi-agent-orchestration

多代理协调技能能够根据任务特征和提供商能力,智能地将任务分配给最合适的AI提供商,实现任务的高效处理和资源的最优利用。

AI应用 0 次安装 0 次浏览 更新于 3/2/2026

多代理协调技能

根据任务特征和提供商能力,将任务路由和委托给最合适的AI提供商。

变量

变量 默认 描述
ENABLED_CLAUDE true 启用Claude Code作为提供商
ENABLED_OPENAI true 启用OpenAI/Codex作为提供商
ENABLED_GEMINI true 启用Gemini作为提供商
ENABLED_CURSOR true 启用Cursor作为提供商
ENABLED_OPENCODE true 启用OpenCode作为提供商
ENABLED_OLLAMA true 启用本地Ollama作为提供商
DEFAULT_PROVIDER claude 当路由不确定时的回退
CHECK_COST_STATUS true 在委托前检查使用情况

指令

强制性 - 按顺序遵循以下工作流程步骤。不要跳过步骤。

  • 在委托前,了解任务特征
  • 使用模型发现技能了解当前模型名称
  • 在高容量委托前检查成本/使用情况

快速决策树

这是什么类型的任务?
│
├─ 需要对话历史? ─────────► 保留在Claude(不委托)
│
├─ 需要沙盒执行? ──────────► OpenAI/Codex
│
├─ 大型上下文(>100k令牌)? ───────► Gemini
│
├─ 多模态(图像/视频)? ──────────► Gemini
│
├─ 需要网络搜索? ─────────────────► Gemini
│
├─ 快速IDE编辑? ─────────────────────► Cursor
│
├─ 需要隐私/离线? ─────────► Ollama
│
├─ 提供商不可知的回退? ─────────► OpenCode
│
└─ 一般推理/编码? ────────► Claude(默认)

红旗 - 停止并重新考虑

如果你即将:

  • 在不检查提供商可用性的情况下委托
  • 使用硬编码的模型名称(使用模型发现技能代替)
  • 在没有用户同意的情况下向提供商发送敏感数据
  • 委托需要你的对话历史的任务
  • 跳过路由决策并猜测哪个提供商

停止 -> 阅读适当的食谱文件 -> 检查提供商状态 -> 然后继续

工作流程

  1. [ ] 分析任务:需要哪些能力?
  2. [ ] 检查点:咨询reference/provider-matrix.md进行路由决策
  3. [ ] 检查提供商可用性:如果CHECK_COST_STATUS为true,则运行provider-check和cost-status
  4. [ ] 阅读所选提供商的适当食谱文件
  5. [ ] 检查点:确认API密钥/认证已配置
  6. [ ] 使用适当的上下文执行委托
  7. [ ] 解析并总结结果给用户

食谱

Claude Code(协调器)

  • IF: 任务需要复杂推理、多文件分析或对话历史
  • THEN: 在Claude Code中保留任务(你是协调器)
  • WHY: 最适合架构决策、复杂重构

OpenAI / Codex

  • IF: 任务需要沙盒执行或安全敏感操作
  • THEN: 阅读并执行cookbook/openai-codex.md
  • REQUIRES: OPENAI_API_KEY或Codex订阅

Google Gemini

  • IF: 任务涉及大型上下文(>100k令牌)、多模态(图像/视频)或网络搜索
  • THEN: 阅读并执行cookbook/gemini-cli.md
  • REQUIRES: GEMINI_API_KEY或Gemini订阅

Cursor

  • IF: 任务是快速IDE编辑、简单代码生成或重命名/重构
  • THEN: 阅读并执行cookbook/cursor-agent.md
  • REQUIRES: Cursor已安装并配置

OpenCode

  • IF: 需要提供商不可知的执行或回退CLI
  • THEN: 阅读并执行cookbook/opencode-cli.md
  • REQUIRES: OpenCode CLI已安装并配置

Ollama(本地)

  • IF: 任务需要隐私、离线操作或免费推理
  • THEN: 阅读并执行cookbook/ollama-local.md
  • REQUIRES: Ollama运行并已拉取模型

模型名称

不要硬编码模型版本号 - 它们很快就会过时。

要获取当前模型名称,请使用model-discovery技能:

python .claude/ai-dev-kit/skills/model-discovery/scripts/fetch_models.py

或阅读:.claude/ai-dev-kit/skills/model-discovery/SKILL.md

快速参考

任务类型 主要 回退
复杂推理 Claude OpenAI
沙盒执行 OpenAI Cursor
大型上下文(>100k) Gemini Claude
多模态 Gemini Claude
快速代码生成 Cursor Claude
网络搜索 Gemini (网络工具)
隐私/离线 Ollama Claude

查看reference/provider-matrix.md以获取详细的路由指导。

工具发现

协调工具可在.claude/ai-dev-kit/dev-tools/orchestration/中找到:

# 检查提供商状态和使用情况
.claude/ai-dev-kit/dev-tools/orchestration/monitoring/cost-status.sh

# 检查CLI可用性(可选应用)
.claude/ai-dev-kit/dev-tools/orchestration/monitoring/provider-check.py

# 智能任务路由
.claude/ai-dev-kit/dev-tools/orchestration/routing/route-task.py "your task"

# 直接提供商执行
.claude/ai-dev-kit/dev-tools/orchestration/providers/claude-code/spawn.sh "task"
.claude/ai-dev-kit/dev-tools/orchestration/providers/codex/execute.sh "task"
.claude/ai-dev-kit/dev-tools/orchestration/providers/gemini/query.sh "task"
.claude/ai-dev-kit/dev-tools/orchestration/providers/cursor/agent.sh "task"
.claude/ai-dev-kit/dev-tools/orchestration/providers/opencode/execute.sh "task"
.claude/ai-dev-kit/dev-tools/orchestration/providers/ollama/query.sh "task"

输出

委托结果应该是:

  1. 从提供商的响应格式中解析
  2. 为用户总结
  3. 重新整合到对话上下文中
## 委托结果

**提供商**:[提供商名称]
**任务**:[简要描述]
**状态**:成功 / 部分 / 失败

### 总结
[关键发现或输出]

### 详细信息
[如果相关,完整响应]