name: 杠杆点审计 description: 审计代码库的12个代理编码杠杆点。识别差距并提供优先建议。用于改进代理编码能力、分析代理失败原因或优化代码库以进行自主工作。 allowed-tools: Read, Grep, Glob
杠杆点审计
审计代码库以12个杠杆点框架,识别差距并提高代理编码成功率。
何时使用
- 在开始新代理编码项目之前
- 当代理失败或需要多次尝试时
- 当KPI(规模、尝试次数、连续成功、存在率)未改善时
- 用于定期健康检查代理能力
12个杠杆点
代理内(核心四点)
- 上下文 - CLAUDE.md、README、项目文档
- 模型 - 适当模型选择
- 提示 - 清晰指令和模板
- 工具 - 可用所需能力
通过代理(外部)
- 标准输出 - 日志记录以提高可见性
- 类型 - 信息密集关键词(IDKs)
- 文档 - 代理特定上下文
- 测试 - 自我校正能力(最高杠杆)
- 架构 - 可导航代码库结构
- 计划 - 元工作沟通
- 模板 - 可重用提示(斜杠命令)
- ADWs - 自主工作流
审计工作流程
步骤1:检查上下文(杠杆点1-4)
CLAUDE.md存在:
搜索:CLAUDE.md、.claude/CLAUDE.md
检查:是否解释项目?约定?常用命令?
README.md质量:
搜索:README.md
检查:是否解释结构?如何运行?如何测试?
权限配置:
搜索:.claude/settings.json
检查:是否允许所需工具?
步骤2:检查可见性(杠杆点5)
标准输出模式:
搜索:print(、console.log(、logger.、logging.
检查:是否记录成功和错误情况?
检查:代理能否看到正在发生什么?
反模式检测:
查找:静默返回、裸except块、空catch块
这些阻止代理可见性。
步骤3:检查可搜索性(杠杆点6)
类型定义:
搜索:interface、type、class、BaseModel、dataclass
检查:名称是否信息密集?(好:UserAuthToken,坏:Data)
步骤4:检查文档(杠杆点7)
内部文档:
搜索:*.md文件、文档字符串、注释
检查:是否解释为什么,而不仅仅是什么?
步骤5:检查验证(杠杆点8) - 最高优先级
测试存在:
搜索:test_*.py、*.test.ts、*.spec.ts、*_test.go
检查:测试是否存在?是否全面?
测试命令:
检查:是否有简单测试命令?(npm test、pytest等)
检查:测试是否快速运行?
步骤6:检查架构(杠杆点9)
入口点:
检查:入口点是否明显?(main.py、index.ts、server.py)
文件组织:
检查:结构一致?相关文件分组?
检查:文件大小是否合理?(< 1000行)
步骤7:检查模板(杠杆点11)
斜杠命令:
搜索:.claude/commands/
检查:常见工作流是否自动化?
步骤8:检查ADWs(杠杆点12)
自动化:
搜索:GitHub Actions、钩子、触发器
检查:工作流是否自动化?
输出格式
审计后提供:
摘要表
| 杠杆点 | 状态 | 优先级 | 建议 |
|---|---|---|---|
| 上下文 | 好/一般/差 | 高/中/低 | 具体行动 |
| … | … | … | … |
优先行动
按影响顺序列出前3-5项改进:
- [最高影响] - 具体建议
- [高影响] - 具体建议
- [中等影响] - 具体建议
详细发现
对于每个杠杆点:
- 当前状态
- 发现的特定差距
- 建议改进
- 良好示例
示例审计输出
## 杠杆点审计结果
### 摘要
- 测试:差(未找到测试文件) - 最高优先级
- 标准输出:一般(有一些日志记录,缺少错误情况)
- 架构:好(结构清晰,文件大小合理)
### 优先行动
1. 添加测试套件 - 启用自我校正
2. 向API端点添加错误日志记录 - 启用可见性
3. 创建/prime命令 - 启用快速上下文
### 详细发现
[... 具体建议 ...]
相关记忆文件
- @12-leverage-points.md - 完整框架参考
- @agentic-kpis.md - 如何衡量改进
- @agent-perspective-checklist.md - 快速前置任务检查清单
版本历史
- v1.0.0 (2025-12-26): 初始发布
最后更新
日期: 2025-12-26 模型: claude-opus-4-5-20251101