生成视频技能Skill generate-video

该技能用于自动生成产品演示视频,通过分析代码库、规划场景并利用AI生成图像,实现高效视频创作。适用于产品推广、视觉文档和培训材料制作。关键词:自动视频生成、产品演示、AI图像生成、代码分析、Remotion框架、短视频制作、SEO优化。

AIGC 0 次安装 5 次浏览 更新于 3/11/2026

name: generate-video description: “自动生成产品演示视频。百闻不如一见,具体体现。当用户提到’/generate-video’、视频生成、产品演示或视觉文档时使用。不要用于:嵌入视频播放器、实时演示、视频播放功能。需要Remotion设置。” description-en: “Auto-generate product demo videos. A picture worth thousand words, embodied. Use when user mentions ‘/generate-video’, video generation, product demos, or visual documentation. Do NOT load for: embedding video players, live demos, video playback features. Requires Remotion setup.” description-ja: “プロダクトデモ動画を自動生成。百聞は一見にしかず、を体現。Use when user mentions ‘/generate-video’, video generation, product demos, or visual documentation. Do NOT load for: embedding video players, live demos, video playback features. Requires Remotion setup.” allowed-tools: [“Read”, “Write”, “Edit”, “Grep”, “Glob”, “Bash”, “Task”, “AskUserQuestion”, “WebFetch”] disable-model-invocation: true argument-hint: “[demo|arch|release]” context: fork

生成视频技能

负责自动生成产品说明视频的技能群。


概述

/generate-video 命令内部使用的技能。 执行代码库分析 → 场景提案 → 并行生成的流程。

功能详情

功能 详情
最佳实践 参见 references/best-practices.md
代码库分析 参见 references/analyzer.md
场景规划 参见 references/planner.md
并行场景生成 参见 references/generator.md
视觉效果库 参见 references/visual-effects.md
AI图像生成 参见 references/image-generator.md
图像质量判定 参见 references/image-quality-check.md

先决条件

  • Remotion 已设置(/remotion-setup
  • Node.js 18+
  • (可选)GOOGLE_AI_API_KEY - 用于AI图像生成

/generate-video 流程

/generate-video
    │
    ├─[步骤1] 分析(analyzer.md)
    │   ├─ 框架检测
    │   ├─ 主要功能检测
    │   ├─ UI组件检测
    │   └─ 项目资产分析(Plans.md、CHANGELOG等)
    │
    ├─[步骤2] 场景提案(planner.md)
    │   ├─ 视频类型自动判定
    │   ├─ 场景构成提案
    │   └─ 用户确认
    │
    ├─[步骤2.5] 素材生成(image-generator.md)← 新增
    │   ├─ 素材必要判定(介绍、行动号召等)
    │   ├─ 使用Nano Banana Pro生成2张
    │   ├─ Claude进行质量判定(image-quality-check.md)
    │   └─ 通过 → 采用 / 不通过 → 重新生成(最多3次)
    │
    └─[步骤3] 并行生成(generator.md)
        ├─ 场景并行生成(Task工具)
        ├─ 整合 + 过渡
        └─ 最终渲染

执行步骤

  1. 用户执行 /generate-video
  2. 确认Remotion设置
  3. 使用 analyzer.md 分析代码库
  4. 使用 planner.md 提出场景并用户确认
  5. 使用 generator.md 进行并行生成
  6. 完成报告

视频类型(按漏斗分类)

类型 漏斗 长度参考 自动判定条件 构成核心
LP/广告预告 认知~兴趣 30-90秒 新项目 痛点→结果→行动号召
介绍演示 兴趣→考虑 2-3分钟 检测UI变更 完整运行一个用例
发行说明 考虑→确信 1-3分钟 CHANGELOG更新 强调前后对比
架构讲解 确信→决策 5-30分钟 大规模结构变更 实际运营+证据
入门指南 持续·活用 30秒-数分钟 首次设置 达到惊喜体验的最短路径

详情: references/best-practices.md

场景模板

90秒预告(LP/广告向)

时间 场景 内容
0-5秒 钩子 痛点或期望结果
5-15秒 问题+承诺 目标用户和承诺
15-55秒 工作流 象征性工作流程
55-70秒 差异化 差异化的依据
70-90秒 行动号召 下一步行动

3分钟介绍演示(考虑向)

时间 场景 内容
0-10秒 钩子 结论+痛点
10-30秒 用例 用例声明
30-140秒 演示 使用实屏完整运行
140-170秒 异议处理 解决一个常见顾虑
170-180秒 行动号召 行动呼吁

通用场景

场景 推荐时间 内容
介绍 3-5秒 标志 + 标语
功能演示 10-30秒 Playwright捕捉
架构图 10-20秒 Mermaid → 动画
行动号召 3-5秒 URL + 联系方式

详细模板: references/best-practices.md

音频同步规则(重要)

带旁白的视频必须遵守以下规则:

规则
音频开始 场景开始 + 30帧(等待1秒)
场景长度 30帧 + 音频长度 + 20帧余量
过渡 15帧(与相邻场景重叠)
场景开始计算 前场景开始 + 前场景长度 - 15帧

提前确认:使用 ffprobe 确认音频长度后再设计场景

详情: references/generator.md

BGM 支持

项目 推荐值
有旁白 bgmVolume: 0.20 - 0.30
无旁白 bgmVolume: 0.50 - 0.80
文件放置 public/BGM/

详情: references/generator.md

字幕支持

规则
字幕开始 与音频开始相同
字幕时长 音频长度 + 10帧
字体 推荐Base64嵌入

详情: references/generator.md

视觉效果库

用于制作有冲击力的视频效果集:

效果 用途
GlitchText 钩子、标题
Particles 背景、行动号召收敛
ScanLine 解析中演出
ProgressBar 并行处理显示
3D Parallax 卡片显示

详情: references/visual-effects.md

备注

  • Remotion未设置时引导 /remotion-setup
  • 并行生成数根据场景数自动调整(最多5个)
  • 生成的视频输出到 out/ 目录
  • AI生成图像保存到 out/assets/generated/
  • GOOGLE_AI_API_KEY 未设置时跳过图像生成(使用现有素材或占位符)