name: whisper description: OpenAI 的通用语音识别模型。支持 99 种语言、转录、翻译到英语和语言识别。有六种模型大小,从 tiny(3900 万参数)到 large(15500 万参数)。用于语音转文字、播客转录或多语言音频处理。最适合强大、多语言的 ASR。 version: 1.0.0 author: Orchestra Research license: MIT tags: [Whisper, 语音识别, ASR, 多模态, 多语言, OpenAI, 语音转文字, 转录, 翻译, 音频处理] dependencies: [openai-whisper, transformers, torch]
Whisper - 强大的语音识别
OpenAI 的多语言语音识别模型。
何时使用 Whisper
使用时:
- 语音转文字转录(99 种语言)
- 播客/视频转录
- 会议笔记自动化
- 翻译到英语
- 嘈杂音频转录
- 多语言音频处理
指标:
- 72,900+ GitHub 星星
- 支持 99 种语言
- 在 680,000 小时音频上训练
- MIT 许可证
使用替代方案:
- AssemblyAI:托管 API,说话人分割
- Deepgram:实时流式 ASR
- Google Speech-to-Text:基于云
快速开始
安装
# 需要 Python 3.8-3.11
pip install -U openai-whisper
# 需要 ffmpeg
# macOS: brew install ffmpeg
# Ubuntu: sudo apt install ffmpeg
# Windows: choco install ffmpeg
基本转录
import whisper
# 加载模型
model = whisper.load_model("base")
# 转录
result = model.transcribe("audio.mp3")
# 打印文本
print(result["text"])
# 访问片段
for segment in result["segments"]:
print(f"[{segment['start']:.2f}s - {segment['end']:.2f}s] {segment['text']}")
模型大小
# 可用模型
models = ["tiny", "base", "small", "medium", "large", "turbo"]
# 加载特定模型
model = whisper.load_model("turbo") # 最快,质量好
| 模型 | 参数 | 仅英语 | 多语言 | 速度 | VRAM |
|---|---|---|---|---|---|
| tiny | 39M | ✓ | ✓ | ~32x | ~1 GB |
| base | 74M | ✓ | ✓ | ~16x | ~1 GB |
| small | 244M | ✓ | ✓ | ~6x | ~2 GB |
| medium | 769M | ✓ | ✓ | ~2x | ~5 GB |
| large | 1550M | ✗ | ✓ | 1x | ~10 GB |
| turbo | 809M | ✗ | ✓ | ~8x | ~6 GB |
推荐:使用 turbo 获得最佳速度/质量,base 用于原型设计
转录选项
语言指定
# 自动检测语言
result = model.transcribe("audio.mp3")
# 指定语言(更快)
result = model.transcribe("audio.mp3", language="en")
# 支持:en, es, fr, de, it, pt, ru, ja, ko, zh, 和 89 更多
任务选择
# 转录(默认)
result = model.transcribe("audio.mp3", task="transcribe")
# 翻译到英语
result = model.transcribe("spanish.mp3", task="translate")
# 输入:西班牙语音频 → 输出:英语文本
初始提示
# 通过上下文提高准确性
result = model.transcribe(
"audio.mp3",
initial_prompt="这是一个关于机器学习和 AI 的技术播客。"
)
# 有助于:
# - 技术术语
# - 专有名词
# - 领域特定词汇
时间戳
# 词级时间戳
result = model.transcribe("audio.mp3", word_timestamps=True)
for segment in result["segments"]:
for word in segment["words"]:
print(f"{word['word']} ({word['start']:.2f}s - {word['end']:.2f}s)")
温度回退
# 如果置信度低,用不同温度重试
result = model.transcribe(
"audio.mp3",
temperature=(0.0, 0.2, 0.4, 0.6, 0.8, 1.0)
)
命令行使用
# 基本转录
whisper audio.mp3
# 指定模型
whisper audio.mp3 --model turbo
# 输出格式
whisper audio.mp3 --output_format txt # 纯文本
whisper audio.mp3 --output_format srt # 字幕
whisper audio.mp3 --output_format vtt # WebVTT
whisper audio.mp3 --output_format json # 带时间戳的 JSON
# 语言
whisper audio.mp3 --language Spanish
# 翻译
whisper spanish.mp3 --task translate
批量处理
import os
audio_files = ["file1.mp3", "file2.mp3", "file3.mp3"]
for audio_file in audio_files:
print(f"转录 {audio_file}...")
result = model.transcribe(audio_file)
# 保存到文件
output_file = audio_file.replace(".mp3", ".txt")
with open(output_file, "w") as f:
f.write(result["text"])
实时转录
# 对于流式音频,使用 faster-whisper
# pip install faster-whisper
from faster_whisper import WhisperModel
model = WhisperModel("base", device="cuda", compute_type="float16")
# 转录流式
segments, info = model.transcribe("audio.mp3", beam_size=5)
for segment in segments:
print(f"[{segment.start:.2f}s -> {segment.end:.2f}s] {segment.text}")
GPU 加速
import whisper
# 如果可用,自动使用 GPU
model = whisper.load_model("turbo")
# 强制 CPU
model = whisper.load_model("turbo", device="cpu")
# 强制 GPU
model = whisper.load_model("turbo", device="cuda")
# 在 GPU 上快 10-20 倍
与其他工具集成
字幕生成
# 生成 SRT 字幕
whisper video.mp4 --output_format srt --language English
# 输出:video.srt
与 LangChain
from langchain.document_loaders import WhisperTranscriptionLoader
loader = WhisperTranscriptionLoader(file_path="audio.mp3")
docs = loader.load()
# 在 RAG 中使用转录
from langchain_chroma import Chroma
from langchain_openai import OpenAIEmbeddings
vectorstore = Chroma.from_documents(docs, OpenAIEmbeddings())
从视频提取音频
# 使用 ffmpeg 提取音频
ffmpeg -i video.mp4 -vn -acodec pcm_s16le audio.wav
# 然后转录
whisper audio.wav
最佳实践
- 使用 turbo 模型 - 对英语最佳速度/质量
- 指定语言 - 比自动检测更快
- 添加初始提示 - 提高技术术语
- 使用 GPU - 快 10-20 倍
- 批量处理 - 更高效
- 转换为 WAV - 更好兼容性
- 分割长音频 - <30 分钟块
- 检查语言支持 - 质量因语言而异
- 使用 faster-whisper - 比 openai-whisper 快 4 倍
- 监控 VRAM - 根据硬件缩放模型大小
性能
| 模型 | 实时因子(CPU) | 实时因子(GPU) |
|---|---|---|
| tiny | ~0.32 | ~0.01 |
| base | ~0.16 | ~0.01 |
| turbo | ~0.08 | ~0.01 |
| large | ~1.0 | ~0.05 |
实时因子:0.1 = 比实时快 10 倍
语言支持
顶级支持语言:
- 英语 (en)
- 西班牙语 (es)
- 法语 (fr)
- 德语 (de)
- 意大利语 (it)
- 葡萄牙语 (pt)
- 俄语 (ru)
- 日语 (ja)
- 韩语 (ko)
- 中文 (zh)
完整列表:总共 99 种语言
限制
- 幻觉 - 可能重复或发明文本
- 长形式准确性 - 在 >30 分钟音频上退化
- 说话人识别 - 无分割
- 口音 - 质量变化
- 背景噪声 - 可能影响准确性
- 实时延迟 - 不适合实时字幕
资源
- GitHub:https://github.com/openai/whisper ⭐ 72,900+
- 论文:https://arxiv.org/abs/2212.04356
- 模型卡:https://github.com/openai/whisper/blob/main/model-card.md
- Colab:在仓库中可用
- 许可证:MIT