OpenAI 文档访问技能
v2.88 关键变更 (模型无关)
- 模型无关: 使用在
~/.claude/settings.json或 CLI/环境变量中配置的模型 - 无需标志: 与配置的默认模型一起工作
- 灵活: 与 GLM-5, Claude, Minimax 或任何配置的模型一起工作
- 设置驱动: 通过
ANTHROPIC_DEFAULT_*_MODEL环境变量选择模型
ultrathink - 深呼吸。我们在这里不是为了编写代码。我们在这里是为了在宇宙中留下印记。
愿景
文档查找应该是不可避免和权威的。
你的工作,一步一步
- 确定目标: 选择合适的库和查询。
- 解析ID: 使用 Context7 获取确切的文档。
- 精确查询: 请求集中的、可回答的片段。
- 应用结果: 将文档转换为可操作的指导。
超越思考原则在实践中
- 不同思考: 寻找最直接的真相来源。
- 对细节着迷: 使用确切的ID和查询措辞。
- 像达芬奇一样计划: 在查询前决定查找路径。
- 打造,而不是编码: 保持结果简洁相关。
- 无情迭代: 当模糊不清时重新查询。
- 无情简化: 避免不必要的来源。
OpenAI 文档访问技能
通过 Context7 MCP 集成访问 OpenAI 的完整开发者文档。
快速开始
# 查询 Codex CLI 文档
mcp__context7__query-docs:
libraryId: "/websites/developers_openai_codex"
query: "你关于 Codex CLI 的问题"
# 查询 OpenAI API 文档
mcp__context7__query-docs:
libraryId: "/websites/platform_openai"
query: "你关于 OpenAI API 的问题"
可用文档库
| 库 ID | 内容 | 片段 | 分数 |
|---|---|---|---|
/websites/developers_openai_codex |
Codex CLI 文档 | 614 | 75.8 |
/websites/platform_openai |
OpenAI API 文档 | 9,418 | 69.1 |
/openai/openai-python |
Python SDK | 429 | 90.7 |
/openai/openai-node |
Node.js SDK | 437 | 87.9 |
/openai/codex |
Codex 核心 | 491 | 62.1 |
/openai/codex-action |
GitHub 动作 | 36 | 78.8 |
常见查询
Codex CLI 配置
# MCP 服务器配置
query-docs:
libraryId: "/websites/developers_openai_codex"
query: "MCP 服务器配置 config.toml 远程 URL 认证"
# 沙盒模式和权限
query-docs:
libraryId: "/websites/developers_openai_codex"
query: "沙盒模式只读 工作区写入 危险全访问"
# 会话恢复和并行执行
query-docs:
libraryId: "/websites/developers_openai_codex"
query: "执行恢复会话并行执行工作流"
OpenAI API 集成
# 聊天完成
query-docs:
libraryId: "/websites/platform_openai"
query: "聊天完成 API 流式传输 函数调用"
# 嵌入和向量搜索
query-docs:
libraryId: "/websites/platform_openai"
query: "嵌入 API 文本嵌入-3 向量维度"
# 助手 API
query-docs:
libraryId: "/websites/platform_openai"
query: "助手 API 线程 消息 运行 工具"
SDK 使用
# Python SDK 异步模式
query-docs:
libraryId: "/openai/openai-python"
query: "异步客户端 流式传输完成 错误处理"
# Node.js SDK TypeScript
query-docs:
libraryId: "/openai/openai-node"
query: "TypeScript 类型 流式传输响应处理"
MCP 配置参考
Context7 (已配置)
# ~/.codex/config.toml
[mcp_servers.context7]
command = "npx"
args = ["-y", "@upstash/context7-mcp@latest"]
远程 MCP 服务器
# 可流式传输的 HTTP 服务器格式
[mcp_servers.example]
url = "https://example.com/mcp"
bearer_token_env_var = "EXAMPLE_TOKEN"
http_headers = { "X-Custom-Header" = "value" }
STDIO 服务器
# 本地命令基础服务器
[mcp_servers.local]
command = "npx"
args = ["-y", "@package/mcp-server"]
[mcp_servers.local.env]
API_KEY = "your-key"
与 Codex CLI 技能集成
这个技能补充了 /codex-cli,通过提供文档查找:
- 执行前: 查询文档以获取正确的标志/选项
- 出错时: 查找错误代码和解决方案
- 配置: 查找正确的 config.toml 语法
工作流示例
# 1. 查询文档以获取正确的语法
# 使用 mcp__context7__query-docs 与 libraryId="/websites/developers_openai_codex"
# 2. 使用正确的选项执行 Codex
codex exec -m gpt-5.2-codex --full-auto "任务"
# 3. 出错时,查询文档以获取解决方案
# 查询: "错误代码 XYZ 故障排除"
Claude-Codex 文档桥接
当 Claude 需要 OpenAI 文档时:
- 使用 Context7 MCP(在 Claude 和 Codex 中都可用)
- 查询基于主题的适当库
- 应用结果以实现
这消除了需要单独的 “openaiDevelopers” MCP - Context7 提供所有 OpenAI 文档,有 614+ Codex CLI 片段和 9,400+ API 片段。
另见
/codex-cli- Codex CLI 编排技能/library-docs- 通过 Context7 获取通用库文档~/.codex/config.toml- MCP 服务器配置