SpecStory链接追踪技能 specstory-link-trail

SpecStory链接追踪技能用于解析SpecStory AI编码历史文件,提取并汇总通过WebFetch工具调用的URL。该技能帮助开发者审计外部资源访问,追踪研究模式,提供成功和失败提取的详细报告,关键词包括:AI辅助编码、URL审计、WebFetch追踪、开发资源管理。

DevOps 0 次安装 0 次浏览 更新于 3/7/2026

名称: specstory-link-trail 描述: 追踪在SpecStory AI编码会话期间获取的所有URL。当用户说“显示我的链接追踪”、“我访问了哪些URL”、“列出获取的链接”或“显示网络获取”时运行。 许可证: Apache-2.0 元数据: 作者: SpecStory, Inc. 版本: “1.0.0” 参数提示: “[历史文件或模式]” 允许的工具: Bash, Read

SpecStory 链接追踪

审查您的.specstory/history会话,并创建通过WebFetch工具调用获取的所有URL的摘要。用于审计开发期间访问的外部资源。

工作原理

  1. 解析 SpecStory历史文件中的WebFetch工具调用
  2. 提取 URL、状态码和上下文
  3. 按会话分组,包括时间戳
  4. 分离成功和失败的获取
  5. 去重重复URL,并显示获取次数

为何追踪链接?

在AI辅助编码过程中,您的助手代表您获取文档、API和资源。链接追踪帮助您:

  • 审计访问了哪些外部资源
  • 找回之前看到的文档页面
  • 复查可能需要重试的失败获取
  • 理解您的研究模式

使用方法

斜杠命令

用户说 脚本行为
/specstory-link-trail 历史中的所有会话
/specstory-link-trail today 仅今天的会话
/specstory-link-trail last session 最近会话
/specstory-link-trail 2026-01-22 特定日期的会话
/specstory-link-trail *.md 自定义全局模式

直接脚本使用

# 所有会话
python skills/specstory-link-trail/parse_webfetch.py .specstory/history/*.md | \
  python skills/specstory-link-trail/generate_report.py -

# 特定会话
python skills/specstory-link-trail/parse_webfetch.py .specstory/history/2026-01-22*.md | \
  python skills/specstory-link-trail/generate_report.py -

# 日期范围会话
python skills/specstory-link-trail/parse_webfetch.py .specstory/history/2026-01-2*.md | \
  python skills/specstory-link-trail/generate_report.py -

输出

链接追踪报告
=================

分析的会话数: 5
获取的URL总数: 23 (18成功, 5失败)

会话: fix-authentication-bug (2026-01-22)
--------------------------------------------
成功获取:
  - https://docs.github.com/en/rest/authentication (×2)
  - https://jwt.io/introduction
  - https://developer.mozilla.org/en-US/docs/Web/HTTP/Status/401

失败获取:
  - https://internal.company.com/api/docs (403 Forbidden)

会话: add-caching-layer (2026-01-21)
---------------------------------------
成功获取:
  - https://redis.io/docs/latest/commands
  - https://docs.python.org/3/library/functools.html#functools.lru_cache
  - https://stackoverflow.com/questions/... (×3)

按域汇总
-----------------
  github.com: 5次获取
  stackoverflow.com: 4次获取
  docs.python.org: 3次获取
  redis.io: 2次获取
  (9个其他域): 9次获取

向用户呈现结果

脚本输出即为报告。直接呈现,无需额外评论,但您可以:

  1. 突出关键发现 - 最常访问的域、任何失败获取
  2. 提供后续建议 - “是否要我重试失败获取?” 或 “需要任何这些的详细信息吗?”

示例响应

这是您近期会话的链接追踪:

[脚本输出]

我注意到有5次失败获取 - 主要是需要认证的内部URL。
最常访问的域是github.com(5次获取),主要用于其REST API文档。

您希望我:
- 重试任何失败获取?
- 打开任何这些链接?
- 过滤到特定会话?

备注

  • 使用流式解析处理大型历史文件
  • URL从历史中的WebFetch工具调用提取
  • 获取次数显示同一URL被访问多次的情况
  • 失败获取包含可用的HTTP状态码