多模型协同合成系统Skill synthese-multi-llm

多模型协同合成系统是一个基于多个大语言模型(LLM)的文本分析与合成工具。它通过协调Claude、Gemini、Codex三个模型,分别担任内容提取者、忠实性守护者和意义架构师的角色,采用多轮审议机制,对源文本进行深度分析、交叉验证和语义一致性检查,最终生成高可靠性、可追溯的合成文本。该系统特别适用于需要高精度、防语义漂移的文本处理场景,如法律文件分析、学术文献综述、商业报告生成等。关键词:多模型协同、文本合成、语义漂移检测、LLM理事会、交叉验证、审计跟踪、AI文本分析、大语言模型集成。

大模型微调 1 次安装 48 次浏览 更新于 3/1/2026

name: synthese-multi-llm description: 由3个LLM(Claude、Gemini、Codex)组成的理事会共同制作的合成文本。当用户需要稳健、可追溯且可验证的合成文本时,应使用此技能。它协调三个具有不同专家角色(提取者、批评者、架构师)的模型,以产生忠实于源文本的合成文本,同时控制语义漂移并提供完整的审计跟踪。

多LLM合成(理事会)

由三个LLM(Claude、Gemini和Codex)通过审议共同制作的合成文本。

原理

“意义不是被提取的,而是被共同制造的。”

此技能协调三个具有不同专家角色的AI模型,以产生稳健的合成文本。每个模型都带来不同的视角,能够检测语义漂移并收敛于忠实的合成文本。

前提条件

安装CLI

# Claude CLI(需要Claude Pro/Max订阅)
npm install -g @anthropic-ai/claude-code
claude auth login

# Gemini CLI
npm install -g @google/gemini-cli
gemini auth login

# Codex CLI
npm install -g @openai/codex
codex auth

验证

python3 scripts/synthese.py --check

使用方法

触发短语

短语 动作
“用理事会合成此文本” 完整的多LLM流程
“对…进行稳健合成” 标准模式(3位专家)
“对…进行快速合成” 加速模式(1轮)
“对…进行批判性分析” 专注于漂移检测
“验证此合成文本” 对现有合成文本进行交叉批判

命令行

# 从文件
python3 scripts/synthese.py -f document.txt

# 直接输入文本
python3 scripts/synthese.py -t "要合成的文本..."

# 带框架的快速模式
python3 scripts/synthese.py -f doc.txt --mode rapide \
    --destinataire "管理委员会" \
    --finalite "决策" \
    --longueur "5行" \
    --ton "正式"

# JSON输出
python3 scripts/synthese.py -f doc.txt --json

选项

选项 描述 默认值
--mode standard, rapide, critique, pedagogique standard
--destinataire 目标受众 interactif
--finalite 合成目标 interactif
--longueur 期望长度 10-15行
--ton 语言风格 accessible
--niveau 预期专业水平 intermédiaire
--timeout 每个模型的超时时间(秒) 300
--no-trail 禁用保存 false
--json 结构化JSON输出 false

架构

3位专家

角色 默认模型 重点
内容提取者 Claude 事实、数据、中心论点
忠实性守护者 Gemini 漂移、偏见、遗漏
意义架构师 Codex 结构、逻辑、一致性

3轮流程

第1轮:提取
├─ 每位专家根据其重点进行分析
├─ 识别论点 + 事实 + 结构
└─ 产生3份独立分析

第2轮:交叉批判
├─ 每位专家批判其他专家的分析
├─ 检测分歧点
├─ 计算收敛分数
└─ 如果收敛 > 80%:进入合成阶段

第3轮:最终合成
├─ 整合分析结果
├─ 解决分歧
├─ 产生合成文本
└─ 注明分歧点

收敛分数

收敛分数(0-100%)表示专家之间的一致程度:

  • > 90% :强共识,高可靠性
  • 70-90% :多数同意,存在细微差别
  • 50-70% :显著分歧,需检查争议点
  • < 50% :重大分歧,需要深入分析

审议模式

标准(默认)

完整的3轮流程。推荐用于重要或模糊的文本。

快速

仅进行一轮提取,直接合成。适用于简短清晰的文本。

批判

专注于漂移检测。用于验证现有合成文本。

教学

解释流程的每个步骤。用于理解方法。

审计跟踪

每次会话在 synthese_trails/ 目录下生成一个JSON文件,包含:

  • 源文本(截断)
  • 框架参数
  • 每位专家每轮的响应
  • 收敛分数
  • 最终合成文本
  • 元数据(持续时间、使用的模型)

查看跟踪

cat synthese_trails/synthese-20250702-143052-a1b2c3.json | jq

弹性

模型不可用

此技能可在1到3个模型下工作:

模型数量 行为
3 最优流程
2 简化流程,收敛性有限
1 降级模式,无交叉批判

超时

每个模型的自适应超时(默认:5分钟)。可通过 --timeout 配置。

错误

一个模型的错误不会中断流程。跟踪文件会记录失败情况。

示例

示例1:报告合成

python3 scripts/synthese.py -f rapport_annuel.txt \
    --destinataire "董事会" \
    --finalite "战略决策" \
    --longueur "1页" \
    --ton "正式"

示例2:批判性验证

python3 scripts/synthese.py -t "我的现有合成文本..." \
    --mode critique

示例3:带JSON输出的管道

python3 scripts/synthese.py -f doc.txt --json | \
    jq -r '.synthese_finale' > synthese.md

参考文档

文档 描述
configuration.md 高级参数(超时、收敛、重试、缓存)
troubleshooting.md 问题解决指南
cadrage.md 框架指南(受众、目的等)
couches-semiotiques.md 4层分析细节
glissements.md 常见语义漂移目录

致谢

灵感来源于bacoco的Council和Andrej Karpathy的LLM Council概念。