名称:parallel-web 描述:“使用平行聊天API和提取API进行网络搜索、提取URL内容以及运行深度研究。用于所有网络搜索、研究查询和一般信息收集。提供带引用的综合摘要。” 允许工具:[Read, Write, Edit, Bash]
平行Web系统API
概述
这个技能提供对平行Web系统API的访问,用于网络搜索、深度研究和内容提取。它是科学写作工作流中所有网络相关操作的主要工具。
主要接口: 平行聊天API(与OpenAI兼容)用于搜索和研究。 次要接口: 提取API仅用于URL验证和特殊情况。
API文档: https://docs.parallel.ai
API密钥: https://platform.parallel.ai
环境变量: PARALLEL_API_KEY
何时使用此技能
使用此技能处理所有以下情况:
- 网络搜索: 任何需要搜索互联网信息的查询
- 深度研究: 任何主题的全面研究报告
- 市场研究: 行业分析、竞争情报、市场数据
- 当前事件: 新闻、最新发展、公告
- 技术信息: 文档、规格、产品详情
- 统计数据: 市场规模、增长率、行业数据
- 一般信息: 公司概况、事实、比较
仅使用提取API用于:
- 引用验证(确认特定URL的内容)
- 特殊情况,需要从已知URL获取原始内容
不要使用此技能用于:
- 学术特定论文搜索(使用
research-lookup,它路由到Perplexity进行纯学术查询) - Google Scholar / PubMed数据库搜索(使用
citation-management技能)
两种能力
1. 网络搜索(search命令)
通过网络平行聊天API(base模型)搜索网络,并获取综合摘要和引用来源。
最佳用于: 一般网络搜索、当前事件、事实查找、技术查找、新闻、市场数据。
# 基本搜索
python scripts/parallel_web.py search "2025年量子计算最新进展"
# 使用核心模型进行更复杂的查询
python scripts/parallel_web.py search "比较EV电池化学NMC与LFP" --model core
# 保存结果到文件
python scripts/parallel_web.py search "可再生能源政策更新" -o results.txt
# JSON输出用于程序化使用
python scripts/parallel_web.py search "AI法规格局" --json -o results.json
关键参数:
objective:自然语言描述你想找到什么--model:使用的聊天模型(默认base,或core用于更深研究)-o:输出文件路径--json:输出为JSON
响应包括: 按主题组织的综合摘要,带有内联引用和来源列表。
2. 深度研究(research命令)
通过平行聊天API(core模型)运行全面的多源研究,生成详细的情报报告和引用。
最佳用于: 市场研究、全面分析、竞争情报、技术调查、行业报告、任何需要综合多个来源的研究问题。
# 默认深度研究(核心模型)
python scripts/parallel_web.py research "全球EV电池市场全面分析"
# 保存研究报告到文件
python scripts/parallel_web.py research "2025年医疗保健中AI采用" -o report.md
# 使用基础模型进行更快、更轻的研究
python scripts/parallel_web.py research "AI初创企业最新融资轮" --model base
# JSON输出
python scripts/parallel_web.py research "欧洲可再生能源存储市场" --json -o data.json
关键参数:
query:研究问题或主题--model:使用的聊天模型(深度研究默认core,或base用于更快结果)-o:输出文件路径--json:输出为JSON
3. URL提取(extract命令)— 仅用于验证
从特定URL提取内容。仅用于引用验证和特殊情况。
对于一般研究,使用search或research代替。
# 验证引用的内容
python scripts/parallel_web.py extract "https://example.com/article" --objective "关键发现"
# 获取完整页面内容进行验证
python scripts/parallel_web.py extract "https://docs.example.com/api" --full-content
# 保存提取内容到文件
python scripts/parallel_web.py extract "https://paper-url.com" --objective "方法论" -o extracted.md
模型选择指南
聊天API支持两种研究模型。对大多数搜索使用base,对深度研究使用core。
| 模型 | 延迟 | 优势 | 使用时机 |
|---|---|---|---|
base |
15s-100s | 标准研究、事实查询 | 网络搜索、快速查找 |
core |
60s-5min | 复杂研究、多源综合 | 深度研究、全面报告 |
推荐:
search命令默认使用base— 快速,适合大多数查询research命令默认使用core— 彻底,适合全面报告- 当需要不同深度/速度权衡时,使用
--model覆盖
Python API使用
搜索
from parallel_web import ParallelSearch
searcher = ParallelSearch()
result = searcher.search(
objective="查找NLP中变压器架构的最新信息",
model="base",
)
if result["success"]:
print(result["response"]) # 综合摘要
for src in result["sources"]:
print(f" {src['title']}: {src['url']}")
深度研究
from parallel_web import ParallelDeepResearch
researcher = ParallelDeepResearch()
result = researcher.research(
query="欧盟和美国AI法规全面分析",
model="core",
)
if result["success"]:
print(result["response"]) # 完整研究报告
print(f"引用: {result['citation_count']}")
提取(仅验证)
from parallel_web import ParallelExtract
extractor = ParallelExtract()
result = extractor.extract(
urls=["https://docs.example.com/api-reference"],
objective="API认证方法和速率限制",
)
if result["success"]:
for r in result["results"]:
print(r["excerpts"])
强制:保存所有结果到源文件夹
每个网络搜索和深度研究结果必须保存到项目的sources/文件夹中。
这确保所有研究都被保存,用于可重复性、可审计性和上下文窗口恢复。
保存规则
| 操作 | -o标志目标 |
文件名模式 |
|---|---|---|
| 网络搜索 | sources/search_<主题>.md |
search_YYYYMMDD_HHMMSS_<简要主题>.md |
| 深度研究 | sources/research_<主题>.md |
research_YYYYMMDD_HHMMSS_<简要主题>.md |
| URL提取 | sources/extract_<来源>.md |
extract_YYYYMMDD_HHMMSS_<简要来源>.md |
如何保存(始终使用-o标志)
关键:每次调用parallel_web.py必须包括-o标志指向sources/文件夹。
# 网络搜索 — 始终保存到sources/
python scripts/parallel_web.py search "2025年量子计算最新进展" \
-o sources/search_20250217_143000_quantum_computing.md
# 深度研究 — 始终保存到sources/
python scripts/parallel_web.py research "全球EV电池市场全面分析" \
-o sources/research_20250217_144000_ev_battery_market.md
# URL提取(仅验证) — 保存到sources/
python scripts/parallel_web.py extract "https://example.com/article" --objective "关键发现" \
-o sources/extract_20250217_143500_example_article.md
为什么保存一切
- 可重复性: 最终文档中的每个声明都可以追溯到其原始源材料
- 上下文窗口恢复: 如果上下文在任务中途被压缩,保存的结果可以从
sources/重新读取 - 审计轨迹:
sources/文件夹提供了信息收集方式的完全透明度 - 跨部分重用: 保存的研究可以被多个部分引用,无需重复API调用
- 成本效率: 通过检查
sources/中现有结果避免冗余API调用 - 同行评审支持: 评审员可以验证每个声明的研究支持
日志记录
当保存研究结果时,始终记录:
[HH:MM:SS] 保存:搜索结果到sources/search_20250217_143000_quantum_computing.md
[HH:MM:SS] 保存:深度研究报告到sources/research_20250217_144000_ev_battery_market.md
在发起新查询前,先检查源
在调用parallel_web.py之前,检查sources/中是否已有相关结果:
ls sources/ # 检查现有保存结果
与科学写作集成
路由表
| 任务 | 工具 | 命令 |
|---|---|---|
| 网络搜索(任何) | parallel_web.py search |
python scripts/parallel_web.py search "查询" -o sources/search_<主题>.md |
| 深度研究 | parallel_web.py research |
python scripts/parallel_web.py research "查询" -o sources/research_<主题>.md |
| 引用验证 | parallel_web.py extract |
python scripts/parallel_web.py extract "url" -o sources/extract_<来源>.md |
| 学术论文搜索 | research_lookup.py |
路由到Perplexity sonar-pro-search |
| DOI/元数据查找 | parallel_web.py extract |
从DOI URL提取(验证) |
当编写科学文档时
- 在编写任何部分之前,使用
search或research收集背景信息 — 保存结果到sources/ - 对于学术引用,使用
research-lookup(将学术查询路由到Perplexity) — 保存结果到sources/ - 对于引用验证(确认特定URL),使用
parallel_web.py extract— 保存结果到sources/ - 对于当前市场/行业数据,使用
parallel_web.py research --model core— 保存结果到sources/ - 在任何新查询之前,检查
sources/中现有结果以避免重复API调用
环境设置
# 必需:设置你的平行API密钥
export PARALLEL_API_KEY="your_api_key_here"
# 必需Python包
pip install openai # 用于聊天API(搜索/研究)
pip install parallel-web # 用于提取API(仅验证)
在https://platform.parallel.ai获取你的API密钥
错误处理
脚本优雅处理错误并返回结构化错误响应:
{
"success": false,
"error": "错误描述",
"timestamp": "2025-02-14 12:00:00"
}
常见问题:
PARALLEL_API_KEY未设置:设置环境变量openai未安装:运行pip install openaiparallel-web未安装:运行pip install parallel-web(仅提取需要)速率限制超出:等待并重试(默认:聊天API 300请求/分钟)
补充技能
| 技能 | 用途 |
|---|---|
research-lookup |
学术论文搜索(路由到Perplexity进行学术查询) |
citation-management |
Google Scholar、PubMed、CrossRef数据库搜索 |
literature-review |
跨学术数据库的系统文献综述 |
scientific-schematics |
从研究结果生成图表 |