研究技能 - 多代理 Ralph v2.88
智能研究与 Zai MCP 集成 - 利用 Zai MCP 进行全面的网络搜索、文章获取和内容分析。
基于研究应该是彻底的、来源可靠的和可操作的原则。
快速开始
# 通过技能调用
/research 最新 React 19 模式和最佳实践
# 通过 CLI
ralph research "TypeScript 5.0 性能优化"
# 专注于特定来源
/research "Next.js App Router" --sources github,docs
v2.88 版本更新
- Zai MCP 作为主要: 使用
mcp__web-search-prime__webSearchPrime而不是 Minimax - 原生 WebFetch: 使用 Claude Code 的原生 WebFetch 进行内容检索
- 多源获取: 支持 GitHub、CSDN、掘金、Linux.do 文章提取
- 模型不可知: 与 settings.json 中配置的任何模型兼容
可用工具
1. mcp__web-search-prime__webSearchPrime (主要搜索)
目的: 进行全面的网络搜索,获得高质量的结果
参数:
search_query: string # 搜索查询(推荐最多 70 个字符)
content_size: string # "medium" (400-600 字) 或 "high" (2500 字)
location: string # "cn" (中文) 或 "us" (非中文)
search_recency_filter: string # oneDay, oneWeek, oneMonth, oneYear, noLimit
search_domain_filter: string # 可选: 限制特定域名
最佳模式:
# 好的: 具体,时间限定
mcp__web-search-prime__webSearchPrime:
search_query: "React 19 useOptimistic hook examples 2025"
search_recency_filter: "oneMonth"
content_size: "medium"
# 好的: 错误集中调试
mcp__web-search-prime__webSearchPrime:
search_query: "TypeError cannot read property undefined Next.js 15"
location: "us"
# 好的: 文档搜索
mcp__web-search-prime__webSearchPrime:
search_query: "Claude Code MCP configuration"
search_domain_filter: "docs.anthropic.com"
# 坏的: 太模糊
mcp__web-search-prime__webSearchPrime:
search_query: "javascript" # 太宽泛,要具体
2. 原生 WebFetch (内容检索)
目的: 获取并分析完整的网页内容
何时使用:
- 深入研究搜索找到的特定文章
- 文档阅读
- GitHub 仓库探索
- API 文档分析
3. mcp__web-search__fetchGithubReadme
目的: 从 GitHub 仓库中提取 README 内容
参数:
url: string # GitHub 仓库 URL
示例:
mcp__web-search__fetchGithubReadme:
url: "https://github.com/vercel/next.js"
4. mcp__web-reader__webReader
目的: 将 URL 内容转换为 LLM 友好的格式
参数:
url: string # 要获取和读取的 URL
return_format: string # "markdown" (默认) 或 "text"
retain_images: boolean # 保留图片 (默认: true)
with_links_summary: boolean # 包含链接摘要
with_images_summary: boolean # 包含图片摘要
示例:
mcp__web-reader__webReader:
url: "https://docs.anthropic.com/claude/docs"
return_format: "markdown"
with_links_summary: true
5. 中文文章获取器
mcp__web-search__fetchCsdnArticle
url: string # CSDN 文章 URL
mcp__web-search__fetchJuejinArticle
url: string # 掘金文章 URL
mcp__web-search__fetchLinuxDoArticle
url: string # Linux.do 帖子 URL
研究工作流程 (5 步)
第 1 步: 初始搜索
# 首先进行广泛的搜索
mcp__web-search-prime__webSearchPrime:
search_query: "${TOPIC} 概览指南 2025"
content_size: "high"
search_recency_filter: "oneMonth"
第 2 步: 细化 & 深化
# 基于初始结果进行针对性的后续搜索
mcp__web-search-prime__webSearchPrime:
search_query: "${SPECIFIC_ASPECT} 实施 ${TOPIC}"
search_recency_filter: "oneWeek"
第 3 步: 获取内容
# 对于文档站点
mcp__web-reader__webReader:
url: "${DOC_URL}"
return_format: "markdown"
# 对于 GitHub 仓库
mcp__web-search__fetchGithubReadme:
url: "${REPO_URL}"
第 4 步: 综合
将发现编译成结构化报告:
- 摘要: 2-3 句话的关键发现
- 来源: 所有 URL 及简短描述
- 细节: 相关代码片段和解释
- 建议: 基于研究的建议方法
- 相关主题: 进一步探索的领域
第 5 步: 持久化
将研究保存到记忆中以供将来参考:
ralph memvid save "Research on ${TOPIC}: [key findings]"
研究模板
技术研究
# 1. 官方文档
mcp__web-search-prime__webSearchPrime:
search_query: "${TECH} 官方文档"
search_domain_filter: "official-site.com"
# 2. 最佳实践
mcp__web-search-prime__webSearchPrime:
search_query: "${TECH} 最佳实践 2025"
# 3. GitHub 示例
mcp__web-search-prime__webSearchPrime:
search_query: "${TECH} 示例 github"
错误研究
# 1. 确切的错误消息
mcp__web-search-prime__webSearchPrime:
search_query: "${ERROR_MESSAGE} ${FRAMEWORK}"
# 2. Stack Overflow 解决方案
mcp__web-search-prime__webSearchPrime:
search_query: "site:stackoverflow.com ${ERROR_MESSAGE}"
# 3. GitHub 问题
mcp__web-search-prime__webSearchPrime:
search_query: "site:github.com ${ERROR_MESSAGE}"
安全研究
# 1. CVE 查找
mcp__web-search-prime__webSearchPrime:
search_query: "CVE ${VERSION} 漏洞"
# 2. 安全通告
mcp__web-search-prime__webSearchPrime:
search_query: "${PACKAGE} 安全通告 2025"
# 3. 漏洞数据库
mcp__web-search-prime__webSearchPrime:
search_query: "${CVE_ID} 漏洞利用"
与 Ralph Loop 集成
# 研究阶段在编排器中
任务:
prompt: |
使用 mcp__web-search-prime__webSearchPrime 研究最新模式为 $TOPIC。
使用 mcp__web-reader__webReader 进行详细内容。
将发现编译成结构化报告并包含来源。
# 代码研究
任务:
prompt: |
在 GitHub 上搜索 $TOPIC 实施示例。
使用 mcp__web-search__fetchGithubReadme 分析仓库。
识别最佳模式和反模式。
Zai MCP 与 Minimax 对比
| 功能 | Zai MCP | Minimax MCP |
|---|---|---|
| 网络搜索 | webSearchPrime | web_search |
| 内容质量 | 高 (最多 2500 字) | 中等 |
| 中文内容 | 优秀 (CSDN, 掘金) | 基础 |
| GitHub 集成 | fetchGithubReadme | 无 |
| URL 阅读器 | webReader | 无 |
| 域名过滤 | 是 | 否 |
| 最近性过滤器 | 是 | 否 |
| 成本 | 免费 (无需 API 密钥) | ~$0.008/查询 |
何时使用每个工具
| 场景 | 推荐工具 |
|---|---|
| 通用网络搜索 | mcp__web-search-prime__webSearchPrime |
| 中文技术文章 | mcp__web-search__fetchCsdnArticle, fetchJuejinArticle |
| GitHub 仓库 | mcp__web-search__fetchGithubReadme |
| 文档阅读 | mcp__web-reader__webReader |
| 实时数据 | 原生 WebFetch |
| 代码搜索仓库 | Grep, Glob (非网络搜索) |
反模式
- 过于宽泛的查询: “javascript” - 总是要具体
- 跳过来源: 总是要引用 URL
- 忽略最新性: 使用最新性过滤器处理快速变化的主题
- 单一来源: 交叉引用多个来源
- 没有综合: 不只是列出结果,要分析它们
- 缺少记忆: 保存学习成果以供未来会话使用
输出格式
将研究报告结构化为:
# 研究: [主题]
**日期**: YYYY-MM-DD
**来源**: X 文章分析
## 摘要
[2-3 句关键发现]
## 关键发现
1. [发现 1]
- 来源: [URL]
- 细节: [解释]
2. [发现 2]
- 来源: [URL]
- 细节: [解释]
## 代码示例
```language
// 相关代码片段
建议
- [建议 1]
- [建议 2]
相关主题
- [进一步研究的主题]
来源
## CLI 命令
```bash
# 标准研究
ralph research "主题描述"
# 有来源焦点
ralph research "主题" --sources github,docs
# 中文内容
ralph research "主题" --location cn
相关技能
/orchestrator- 带有研究阶段的完整编排/smart-fork- 从外部仓库提取模式/clarify- 用研究澄清需求
代理团队集成 (v2.88)
最佳场景: B (纯自定义子代理)
为什么研究场景 B
- 独立执行: 研究大多是自包含的
- 专业化 > 协调: 工具专业知识比代理间协调更重要
- 设置更简单: 单用途研究任务没有团队开销
- 工具限制: ralph-researcher 有专门的工具 (WebSearch, WebFetch)
场景分析
| 标准 | 权重 | 分数 | 理由 |
|---|---|---|---|
| 协调需求 | 25% | 3/10 | 研究是独立的 |
| 专业化需求 | 25% | 9/10 | 需要专门的网络工具 |
| 质量门需求 | 20% | 5/10 | 适度的验证需求 |
| 工具限制需求 | 15% | 8/10 | 只读工具很重要 |
| 可扩展性 | 15% | 7/10 | 随着主题复杂性扩展 |
| 总计 | 100% | 7.5/10 | 场景 B 最佳 |
工作流程
# 场景 B: 直接生成无需 TeamCreate
任务(subagent_type="ralph-researcher", prompt="研究 ${TOPIC}")
→ 使用专业工具执行
→ 编译结构化报告
→ 返回发现
使用方法
直接生成 (推荐):
任务:
subagent_type: "ralph-researcher"
prompt: |
使用:
1. mcp__web-search-prime__webSearchPrime 进行初始搜索
2. mcp__web-reader__webReader 进行内容提取
3. mcp__web-search__fetchGithubReadme 用于 GitHub 仓库
编译成包含所有来源的结构化报告。
并行研究 (多个主题):
# 为不同主题生成多个研究者
任务(subagent_type="ralph-researcher", prompt="研究 React 19 功能")
任务(subagent_type="ralph-researcher", prompt="研究 TypeScript 5.5")
任务(subagent_type="ralph-researcher", prompt="研究 Node.js 性能")
# 结果独立聚合