名称: codex 描述: 当用户询问运行Codex CLI(codex exec, codex resume)或引用OpenAI Codex进行代码分析、重构或自动化编辑时使用。默认使用GPT-5.2进行先进的软件工程。
Codex 技能指南
运行任务
- 默认使用
gpt-5.2模型。通过AskUserQuestion询问用户要使用的推理努力级别(xhigh、high、medium或low)。用户可以根据需要覆盖模型(参见下面的模型选项)。 - 选择任务所需的沙盒模式;除非需要编辑或网络访问,否则默认使用
--sandbox read-only。 - 组装带适当选项的命令:
-m, --model <MODEL>--config model_reasoning_effort="<high|medium|low>"--sandbox <read-only|workspace-write|danger-full-access>--full-auto-C, --cd <DIR>--skip-git-repo-check
- 始终使用 --skip-git-repo-check。
- 当继续先前会话时,通过 stdin 使用
codex exec --skip-git-repo-check resume --last。恢复时不要使用任何配置标志,除非用户明确请求,例如在请求恢复会话时指定模型或推理努力。恢复语法:echo "您的提示" | codex exec --skip-git-repo-check resume --last 2>/dev/null。所有标志必须插入在 exec 和 resume 之间。 - 重要:默认情况下,在所有
codex exec命令后附加2>/dev/null以抑制思考令牌(stderr)。仅当用户明确要求查看思考令牌或需要调试时才显示 stderr。 - 运行命令,捕获 stdout/stderr(适当过滤),并为用户总结结果。
- Codex 完成后,告知用户:“您可以在任何时候通过说 ‘codex resume’ 或要求我继续进行额外分析或更改来恢复此 Codex 会话。”
快速参考
| 使用场景 | 沙盒模式 | 关键标志 |
|---|---|---|
| 只读审查或分析 | read-only |
--sandbox read-only 2>/dev/null |
| 应用本地编辑 | workspace-write |
--sandbox workspace-write --full-auto 2>/dev/null |
| 允许网络或广泛访问 | danger-full-access |
--sandbox danger-full-access --full-auto 2>/dev/null |
| 恢复最近会话 | 从原始会话继承 | echo "提示" | codex exec --skip-git-repo-check resume --last 2>/dev/null(不允许使用任何标志) |
| 从另一个目录运行 | 匹配任务需求 | -C <DIR> 加其他标志 2>/dev/null |
模型选项
| 模型 | 最适合 | 上下文窗口 | 关键特性 |
|---|---|---|---|
gpt-5.2-max |
最大模型:超复杂推理、深度问题分析 | 400K 输入 / 128K 输出 | 76.3% SWE-bench、自适应推理、$1.25/$10.00 |
gpt-5.2 ⭐ |
旗舰模型:软件工程、代理编码工作流 | 400K 输入 / 128K 输出 | 76.3% SWE-bench、自适应推理、$1.25/$10.00 |
gpt-5.2-mini |
成本高效的编码(4倍更多使用额度) | 400K 输入 / 128K 输出 | 近 SOTA 性能、$0.25/$2.00 |
gpt-5.1-thinking |
超复杂推理、深度问题分析 | 400K 输入 / 128K 输出 | 自适应思考深度、在最硬任务上运行慢 2 倍 |
GPT-5.2 优势:76.3% SWE-bench(对比 72.8% GPT-5)、平均任务快 30%、更好的工具处理、减少幻觉、改进代码质量。知识截止日期:2024年9月30日。
推理努力级别:
xhigh- 超复杂任务(深度问题分析、复杂推理、问题的深度理解)high- 复杂任务(重构、架构、安全分析、性能优化)medium- 标准任务(重构、代码组织、功能添加、错误修复)low- 简单任务(快速修复、简单更改、代码格式化、文档)
缓存输入折扣:重复上下文享受 90% 折扣($0.125/百万令牌),缓存最多持续 24 小时。
后续操作
- 在每次
codex命令后,立即使用AskUserQuestion确认下一步、收集澄清或决定是否通过codex exec resume --last恢复。 - 恢复时,通过 stdin 传递新提示:
echo "新提示" | codex exec resume --last 2>/dev/null。恢复的会话自动使用原始会话的相同模型、推理努力和沙盒模式。 - 在提议后续操作时,重新陈述选择的模型、推理努力和沙盒模式。
错误处理
- 当
codex --version或codex exec命令退出非零时,停止并报告失败;在重试前请求方向。 - 在使用高影响标志(
--full-auto、--sandbox danger-full-access、--skip-git-repo-check)前,使用 AskUserQuestion 请求用户许可,除非已获得许可。 - 当输出包括警告或部分结果时,总结它们并使用
AskUserQuestion询问如何调整。
CLI 版本
需要 Codex CLI v0.57.0 或更高版本以支持 GPT-5.2 模型。CLI 在 macOS/Linux 和 Windows 上默认使用 gpt-5.2。检查版本:codex --version
在 Codex 会话内使用 /model 斜杠命令切换模型,或在 ~/.codex/config.toml 中配置默认设置。