链接轨迹 specstory-link-trail

链接轨迹技能用于在AI辅助编码过程中追踪所有通过WebFetch工具获取的URL,生成详细报告,方便用户审计外部资源访问、回顾研究模式和调试失败获取。关键词:AI编码、URL追踪、资源审计、开发工具、SpecStory。

AI应用 0 次安装 0 次浏览 更新于 3/7/2026

name: 链接轨迹 description: 在SpecStory AI编码会话中追踪所有通过WebFetch工具获取的URL。当用户说“显示我的链接轨迹”、“我访问了哪些URL”、“列出获取的链接”或“显示网页获取”时运行。 license: Apache-2.0 metadata: author: SpecStory, Inc. version: “1.0.0” argument-hint: “[history-file-or-pattern]” allowed-tools: Bash, Read

SpecStory 链接轨迹

审查您的.specstory/history会话,并创建通过WebFetch工具调用获取的所有URL的总结。用于审计开发过程中访问的外部资源。

工作原理

  1. 解析 SpecStory历史文件中的WebFetch工具调用
  2. 提取 URL、状态码和上下文
  3. 按会话分组,带时间戳
  4. 分离成功获取和失败获取
  5. 去重重复URL,显示获取计数

为什么追踪链接?

在AI辅助编码期间,您的助手代表您获取文档、API和资源。链接轨迹帮助您:

  • 审计访问了哪些外部资源
  • 找到您之前看到的文档页面
  • 审查可能需要重试的失败获取
  • 理解您的研究模式

使用

斜杠命令

用户说 脚本行为
/specstory-link-trail 历史中的所有会话
/specstory-link-trail today 仅今天的会话
/specstory-link-trail last session 最近会话
/specstory-link-trail 2026-01-22 特定日期的会话
/specstory-link-trail *.md 自定义glob模式

直接脚本使用

# 所有会话
python skills/specstory-link-trail/parse_webfetch.py .specstory/history/*.md | \
  python skills/specstory-link-trail/generate_report.py -

# 特定会话
python skills/specstory-link-trail/parse_webfetch.py .specstory/history/2026-01-22*.md | \
  python skills/specstory-link-trail/generate_report.py -

# 来自日期范围的会话
python skills/specstory-link-trail/parse_webfetch.py .specstory/history/2026-01-2*.md | \
  python skills/specstory-link-trail/generate_report.py -

输出

链接轨迹报告
=================

分析的会话: 5
总获取的URL: 23 (18 成功, 5 失败)

会话: 修复认证错误 (2026-01-22)
--------------------------------------------
成功获取:
  - https://docs.github.com/en/rest/authentication (×2)
  - https://jwt.io/introduction
  - https://developer.mozilla.org/en-US/docs/Web/HTTP/Status/401

失败获取:
  - https://internal.company.com/api/docs (403 Forbidden)

会话: 添加缓存层 (2026-01-21)
---------------------------------------
成功获取:
  - https://redis.io/docs/latest/commands
  - https://docs.python.org/3/library/functools.html#functools.lru_cache
  - https://stackoverflow.com/questions/... (×3)

按域总结
-----------------
  github.com: 5 获取
  stackoverflow.com: 4 获取
  docs.python.org: 3 获取
  redis.io: 2 获取
  (9 其他域): 9 获取

向用户展示结果

脚本输出就是报告。直接呈现,无需额外评论,但您可以:

  1. 突出关键发现 - 最频繁访问的域,任何失败获取
  2. 提供后续操作 - “想让我重试失败获取吗?”或“需要任何这些的详细信息吗?”

示例响应

这是您近期会话的链接轨迹:

[脚本输出这里]

我注意到 5 个失败获取 - 主要是需要身份验证的内部URL。
最访问的域是 github.com (5 获取),主要用于他们的REST API文档。

您希望我:
- 重试任何失败获取?
- 打开任何这些链接?
- 过滤到特定会话?

注意

  • 使用流式解析处理大历史文件
  • URL从历史中的WebFetch工具调用中提取
  • 获取计数显示同一URL被访问多次的情况
  • 失败获取包括可用的HTTP状态码