研究记忆清理Skill research-memory-cleanup

研究记忆清理技能,用于整理和优化研究智能体的知识库。该技能通过整合重复论文条目、组织研究领域、清理冗余配置,帮助研究人员和AI智能体高效管理研究文献、笔记和发现记录。关键词:研究记忆清理、论文去重、研究领域组织、AI智能体优化、知识库整理、文献管理、研究笔记整合、智能体维护。

AI智能体 0 次安装 2 次浏览 更新于 2/27/2026

name: research-memory-cleanup description: 整理和清理研究智能体记忆 - 整合论文信息、组织研究领域、消除研究跟踪中的冗余。

研究记忆清理

通过整合重复的论文信息、组织研究领域和消除冗余来清理研究智能体记忆。

快速开始:清理周期

最常见用途:记忆因重复的论文条目、分散的研究笔记或冲突的发现配置而变得混乱。

标准开场白

用户:"我的研究记忆变得混乱了。"

智能体:"让我们来清理一下!我将:

1. 备份您当前的记忆(安全第一)
2. 审查需要整合的内容
3. 清理重复/分散的信息
4. 恢复清理后的版本

这大约需要5分钟。准备好开始了吗?"

然后执行3步工作流程。


诊断:需要清理什么?

通过3个问题来了解混乱情况:

问题1:哪里混乱?

智能体:"您的研究记忆中哪些地方感觉混乱?
A) 重复的论文条目
B) 分散的研究领域笔记
C) 冲突的发现配置
D) 陈旧/过时的研究领域
E) 整体杂乱无章"

问题2:混乱程度如何?

智能体:"混乱程度:
A) 轻度杂乱(跟踪50-100篇论文)
B) 比较混乱(100-300篇论文)
C) 非常混乱(300+篇论文或50K+字符)
D) 完全混乱(合并了多个研究智能体)"

问题3:需要保留什么?

智能体:"哪些内容绝对不能丢失?
- 活跃的研究问题?
- 发现配置?
- 论文阅读列表?
- 引用网络?
- 分析笔记?

告诉我哪些是神圣不可侵犯的,我会保护它们。"

对话模式

模式1:标准记忆清理

触发条件:一般性记忆混乱,不严重

智能体:"开始标准清理。这将:

步骤1:备份所有内容
步骤2:整合重复的论文条目
步骤3:组织研究领域
步骤4:清理发现配置
步骤5:恢复清理后的版本

正在备份..."

[运行备份脚本]

智能体:"备份已保存到 .letta/backups/[agent-id]/[timestamp]/

现在生成内存子智能体来清理文件..."

[生成带有清理任务的内存子智能体]

智能体:"内存子智能体正在工作...(这需要2-3分钟)

[等待子智能体完成]

智能体:"清理完成!变更:
- 合并了15个重复论文条目 → 5篇唯一论文
- 组织了3个研究领域(ML, NLP, RL)
- 移除了2个过时的发现配置
- 总体减少:12,450 字符 → 8,200 字符(缩小34%)

现在恢复清理后的记忆..."

[运行恢复脚本]

智能体:"完成!您的研究记忆现已整理并去重。"

模式2:论文条目整合

触发条件:许多重复的论文条目

智能体:"我看到很多重复的论文条目。正在清理论文...

[内存子智能体任务:整合论文]

整合策略:
1. 按论文标题/DOI分组
2. 将所有提及合并为单个条目
3. 保留:标题、作者、引用、您的笔记
4. 移除:重复跟踪、分散的提及

子智能体将合并论文并删除源重复文件。"

内存子智能体提示:

编辑 .letta/backups/working/ 中的内存文件以整合论文条目。

查找重复论文(相同标题/DOI):
1. 为每篇论文创建单个综合性条目
2. 合并所有笔记、引用、分析
3. 删除重复的源文件(使用 rm 命令)

示例:
- paper-transformers-1.md
- paper-transformers-duplicate.md
→ 合并为单个 paper-transformers.md
→ rm paper-transformers-duplicate.md

整合后,报告合并了哪些内容。

模式3:研究领域组织

触发条件:研究领域分散,没有清晰结构

智能体:"您的研究领域很分散。让我来组织它们...

[内存子智能体任务:组织领域]

组织策略:
1. 识别主要研究领域(ML, NLP, CV 等)
2. 按领域分组论文/笔记
3. 创建特定领域的内存块
4. 链接相关领域

子智能体将创建有组织的结构。"

内存子智能体提示:

按领域组织研究记忆。

创建领域块:
- research-domain-ml.md(ML论文和笔记)
- research-domain-nlp.md(NLP论文和笔记)
- research-domain-rl.md(RL论文和笔记)

将相关内容移动到每个领域块中。
合并后删除分散的源文件。

使用清晰的结构:
## 论文
- 论文1:[标题] - [笔记]
- 论文2:[标题] - [笔记]

## 关键概念
- 概念1:[描述]

## 活跃问题
- 问题1:[问题]

模式4:发现配置清理

触发条件:陈旧/冲突的发现配置

智能体:"我看到多个发现配置,有些已过时。正在清理...

[内存子智能体任务:清理发现配置]

清理策略:
1. 保留:当前活跃的发现配置
2. 归档:旧配置(如果以后可能需要)
3. 移除:明显过时/冲突的配置

子智能体将保留活跃配置,移除失效配置。"

快速参考卡片

卡片1:3步工作流程

每次清理都遵循此流程:

# 步骤1:备份
npx tsx [SKILL_DIR]/scripts/backup-memory.ts $LETTA_AGENT_ID .letta/backups/working

# 步骤2:清理(生成带有任务的内存子智能体)
Task({
  subagent_type: "memory",
  description: "清理研究记忆",
  prompt: "[具体清理任务]"
})

# 步骤3:恢复
npx tsx [SKILL_DIR]/scripts/restore-memory.ts $LETTA_AGENT_ID .letta/backups/working

切勿跳过备份!

卡片2:需要整合什么

常见研究记忆问题:

问题 整合策略
重复论文 按DOI/标题合并 → 单个条目
分散领域 按主题分组 → 领域块
旧发现配置 保留活跃的,归档旧的,删除失效的
冗余笔记 合并相似笔记 → 单个连贯笔记
冲突信息 解决冲突 → 选择正确版本
大段文本 添加结构 → 标题 + 项目符号

卡片3:内存子智能体提示

清理任务模板:

编辑 .letta/backups/working/ 中的内存文件以 [具体目标]。

重点关注:
- [主要整合任务]
- [次要组织任务]
- [第三级清理任务]

重要提示:合并内容后,删除源文件(rm 命令)。
您在 .letta/backups/working/ 中拥有完整的 bash 访问权限。

在以下情况下删除文件:
1. 内容已合并到另一个块中
2. 文件是重复/垃圾数据
3. 文件已过时且无关紧要

报告合并和删除了哪些内容。

关键原则:

  • 具体目标(整合论文、组织领域等)
  • 授予完整的 bash 访问权限
  • 明确说明删除合并的文件
  • 要求报告变更

卡片4:回滚安全

如果清理出错:

# 查找备份
ls -la .letta/backups/[agent-id]/

# 从时间戳恢复
npx tsx [SKILL_DIR]/scripts/restore-memory.ts $LETTA_AGENT_ID .letta/backups/[agent-id]/[timestamp]

专业提示:每个备份都有时间戳,因此您可以回滚到任何先前状态。


优化模式

优化1:清理过于激进

症状:重要的研究笔记被移除

修复:回滚并更具体

智能体:"清理移除了太多内容。让我回滚:

[从备份恢复]

智能体:"已回滚到清理前的状态。

让我们用更具体的指令再试一次:
- 具体应该整合什么?
- 无论如何必须保留什么?

告诉我具体细节,我会给内存子智能体更清晰的指令。"

优化2:论文仍重复

症状:清理未合并所有重复项

修复:更具体的合并指令

智能体:"有些论文仍然重复。让我:

1. 识别重复项(相同DOI/标题)
2. 向您展示哪些是重复的
3. 给内存子智能体明确的合并列表

这将更加精确。"

增强提示:

合并这些特定的论文重复项:
- paper-bert.md + paper-bert-2.md → paper-bert.md
- paper-gpt3.md + gpt3-analysis.md → paper-gpt3.md

对于每次合并:
1. 组合所有唯一信息
2. 删除重复文件
3. 报告:"合并了 [文件1] + [文件2] → [结果]"

优化3:结构丢失

症状:清理后产生大段文本,没有组织

修复:添加结构要求

智能体:"清理丢失了结构。让我修复:

[重新运行并添加结构要求]

内存子智能体现将:
- 使用 Markdown 标题(##, ###)
- 用项目符号组织
- 将相关信息放在一起
- 添加可扫描的格式

再次运行..."

优化4:需要迭代清理

症状:一次清理不够

修复:多次清理,每次关注不同重点

智能体:"这需要多次清理。让我们:

第1轮:整合论文(已完成)
第2轮:组织领域(下一步)
第3轮:清理配置(之后)

每轮都建立在前一轮的基础上。准备好第2轮了吗?"

故障排除

问题 快速修复
备份失败 检查磁盘空间,.letta/backups/ 权限
子智能体删除太多 回滚,更具体地说明要保留的内容
恢复失败 检查工作目录是否有清理后的文件
记忆仍然混乱 运行多轮,每轮有特定重点
丢失重要笔记 立即回滚,检查备份时间戳
清理耗时过长 缩小范围,一次清理一个部分
文件未删除 在提示中明确添加“使用 rm 命令”
未整合 内存子智能体需要更清晰的合并指令
结构丢失 在提示中添加格式要求

高级:特定研究清理模式

模式A:论文阅读列表清理

使用场景:阅读列表有50+篇论文,许多重复

智能体:"正在清理论文阅读列表...

策略:
1. 按主题/领域分组
2. 标记状态(已读、在读、待读)
3. 移除重复项
4. 按优先级排序

内存子智能体将创建有组织的 reading-list.md。"

模式B:引用网络清理

使用场景:引用图分散在多个文件中

智能体:"正在整合引用网络...

策略:
1. 合并所有引用数据
2. 移除重复边
3. 更新论文元数据
4. 创建单个 citation-graph.md

内存子智能体将整合图表。"

模式C:发现历史清理

使用场景:6个月的发现结果,许多已过时

智能体:"正在清理发现历史...

策略:
1. 保留:最近30天的发现
2. 归档:30-90天(压缩为摘要)
3. 删除:90+天(除非标记为重要)

内存子智能体将修剪旧的发现。"

总结:智能体的心智模型

核心工作流程:

  1. 先备份(始终) - 安全网
  2. 审查需要整合的内容
  3. 清理 使用内存子智能体(具体指令)
  4. 恢复 清理后的版本
  5. 验证 变更是否良好
  6. 回滚 如果需要(备份已保存)

关键原则:

  • 切勿跳过备份(回滚安全)
  • 对内存子智能体指令要具体
  • 明确告诉子智能体删除合并的文件
  • 对复杂清理运行多轮
  • 在最终确定前验证
  • 研究数据是神圣的 - 有疑问时保留

需要整合的内容:

  • 重复论文条目(相同DOI/标题)
  • 分散的研究领域笔记
  • 冗余发现配置
  • 陈旧/过时的研究领域
  • 大段文本(添加结构)

需要保留的内容:

  • 活跃的研究问题(神圣)
  • 当前发现配置(活跃)
  • 论文阅读列表(用户的工作流程)
  • 引用网络(研究联系)
  • 分析笔记(见解)

成功标准:研究记忆已组织、去重和结构化 - 智能体可以快速访问论文、领域和配置,而无需在重复项中费力寻找。