OpenAI文档访问技能 openai-docs

这个技能提供了对 OpenAI 开发者文档的完整访问,通过 Context7 MCP 集成,支持 Codex CLI、OpenAI API、Python/Node SDKs 和 Agents SDK 的文档查询,适用于配置 Codex CLI 或 MCP 服务器、编写 OpenAI API 集成、构建 OpenAI SDK 代理以及故障排除 Codex 执行。

NLP 0 次安装 0 次浏览 更新于 3/4/2026

OpenAI 文档访问技能

v2.88 关键变更 (模型无关)

  • 模型无关: 使用在 ~/.claude/settings.json 或 CLI/环境变量中配置的模型
  • 无需标志: 与配置的默认模型一起工作
  • 灵活: 与 GLM-5, Claude, Minimax 或任何配置的模型一起工作
  • 设置驱动: 通过 ANTHROPIC_DEFAULT_*_MODEL 环境变量选择模型

ultrathink - 深呼吸。我们在这里不是为了编写代码。我们在这里是为了在宇宙中留下印记。

愿景

文档查找应该是不可避免和权威的。

你的工作,一步一步

  1. 确定目标: 选择合适的库和查询。
  2. 解析ID: 使用 Context7 获取确切的文档。
  3. 精确查询: 请求集中的、可回答的片段。
  4. 应用结果: 将文档转换为可操作的指导。

超越思考原则在实践中

  • 不同思考: 寻找最直接的真相来源。
  • 对细节着迷: 使用确切的ID和查询措辞。
  • 像达芬奇一样计划: 在查询前决定查找路径。
  • 打造,而不是编码: 保持结果简洁相关。
  • 无情迭代: 当模糊不清时重新查询。
  • 无情简化: 避免不必要的来源。

OpenAI 文档访问技能

通过 Context7 MCP 集成访问 OpenAI 的完整开发者文档。

快速开始

# 查询 Codex CLI 文档
mcp__context7__query-docs:
  libraryId: "/websites/developers_openai_codex"
  query: "你关于 Codex CLI 的问题"

# 查询 OpenAI API 文档
mcp__context7__query-docs:
  libraryId: "/websites/platform_openai"
  query: "你关于 OpenAI API 的问题"

可用文档库

库 ID 内容 片段 分数
/websites/developers_openai_codex Codex CLI 文档 614 75.8
/websites/platform_openai OpenAI API 文档 9,418 69.1
/openai/openai-python Python SDK 429 90.7
/openai/openai-node Node.js SDK 437 87.9
/openai/codex Codex 核心 491 62.1
/openai/codex-action GitHub 动作 36 78.8

常见查询

Codex CLI 配置

# MCP 服务器配置
query-docs:
  libraryId: "/websites/developers_openai_codex"
  query: "MCP 服务器配置 config.toml 远程 URL 认证"

# 沙盒模式和权限
query-docs:
  libraryId: "/websites/developers_openai_codex"
  query: "沙盒模式只读 工作区写入 危险全访问"

# 会话恢复和并行执行
query-docs:
  libraryId: "/websites/developers_openai_codex"
  query: "执行恢复会话并行执行工作流"

OpenAI API 集成

# 聊天完成
query-docs:
  libraryId: "/websites/platform_openai"
  query: "聊天完成 API 流式传输 函数调用"

# 嵌入和向量搜索
query-docs:
  libraryId: "/websites/platform_openai"
  query: "嵌入 API 文本嵌入-3 向量维度"

# 助手 API
query-docs:
  libraryId: "/websites/platform_openai"
  query: "助手 API 线程 消息 运行 工具"

SDK 使用

# Python SDK 异步模式
query-docs:
  libraryId: "/openai/openai-python"
  query: "异步客户端 流式传输完成 错误处理"

# Node.js SDK TypeScript
query-docs:
  libraryId: "/openai/openai-node"
  query: "TypeScript 类型 流式传输响应处理"

MCP 配置参考

Context7 (已配置)

# ~/.codex/config.toml
[mcp_servers.context7]
command = "npx"
args = ["-y", "@upstash/context7-mcp@latest"]

远程 MCP 服务器

# 可流式传输的 HTTP 服务器格式
[mcp_servers.example]
url = "https://example.com/mcp"
bearer_token_env_var = "EXAMPLE_TOKEN"
http_headers = { "X-Custom-Header" = "value" }

STDIO 服务器

# 本地命令基础服务器
[mcp_servers.local]
command = "npx"
args = ["-y", "@package/mcp-server"]

[mcp_servers.local.env]
API_KEY = "your-key"

与 Codex CLI 技能集成

这个技能补充了 /codex-cli,通过提供文档查找:

  1. 执行前: 查询文档以获取正确的标志/选项
  2. 出错时: 查找错误代码和解决方案
  3. 配置: 查找正确的 config.toml 语法

工作流示例

# 1. 查询文档以获取正确的语法
# 使用 mcp__context7__query-docs 与 libraryId="/websites/developers_openai_codex"

# 2. 使用正确的选项执行 Codex
codex exec -m gpt-5.2-codex --full-auto "任务"

# 3. 出错时,查询文档以获取解决方案
# 查询: "错误代码 XYZ 故障排除"

Claude-Codex 文档桥接

当 Claude 需要 OpenAI 文档时:

  1. 使用 Context7 MCP(在 Claude 和 Codex 中都可用)
  2. 查询基于主题的适当库
  3. 应用结果以实现

这消除了需要单独的 “openaiDevelopers” MCP - Context7 提供所有 OpenAI 文档,有 614+ Codex CLI 片段和 9,400+ API 片段。

另见

  • /codex-cli - Codex CLI 编排技能
  • /library-docs - 通过 Context7 获取通用库文档
  • ~/.codex/config.toml - MCP 服务器配置