Whisper语音识别Skill whisper

Whisper 是 OpenAI 开发的多语言语音识别模型,能够将语音转换为文字,支持 99 种语言的转录和翻译到英语,适用于语音转文字、播客转录、会议自动化、音频处理等场景。关键词:语音识别、ASR、多语言、转录、翻译、音频处理、人工智能、NLP。

NLP 0 次安装 0 次浏览 更新于 3/21/2026

name: whisper description: OpenAI 的通用语音识别模型。支持 99 种语言、转录、翻译到英语和语言识别。有六种模型大小,从 tiny(3900 万参数)到 large(15500 万参数)。用于语音转文字、播客转录或多语言音频处理。最适合强大、多语言的 ASR。 version: 1.0.0 author: Orchestra Research license: MIT tags: [Whisper, 语音识别, ASR, 多模态, 多语言, OpenAI, 语音转文字, 转录, 翻译, 音频处理] dependencies: [openai-whisper, transformers, torch]

Whisper - 强大的语音识别

OpenAI 的多语言语音识别模型。

何时使用 Whisper

使用时:

  • 语音转文字转录(99 种语言)
  • 播客/视频转录
  • 会议笔记自动化
  • 翻译到英语
  • 嘈杂音频转录
  • 多语言音频处理

指标:

  • 72,900+ GitHub 星星
  • 支持 99 种语言
  • 在 680,000 小时音频上训练
  • MIT 许可证

使用替代方案:

  • AssemblyAI:托管 API,说话人分割
  • Deepgram:实时流式 ASR
  • Google Speech-to-Text:基于云

快速开始

安装

# 需要 Python 3.8-3.11
pip install -U openai-whisper

# 需要 ffmpeg
# macOS: brew install ffmpeg
# Ubuntu: sudo apt install ffmpeg
# Windows: choco install ffmpeg

基本转录

import whisper

# 加载模型
model = whisper.load_model("base")

# 转录
result = model.transcribe("audio.mp3")

# 打印文本
print(result["text"])

# 访问片段
for segment in result["segments"]:
    print(f"[{segment['start']:.2f}s - {segment['end']:.2f}s] {segment['text']}")

模型大小

# 可用模型
models = ["tiny", "base", "small", "medium", "large", "turbo"]

# 加载特定模型
model = whisper.load_model("turbo")  # 最快,质量好
模型 参数 仅英语 多语言 速度 VRAM
tiny 39M ~32x ~1 GB
base 74M ~16x ~1 GB
small 244M ~6x ~2 GB
medium 769M ~2x ~5 GB
large 1550M 1x ~10 GB
turbo 809M ~8x ~6 GB

推荐:使用 turbo 获得最佳速度/质量,base 用于原型设计

转录选项

语言指定

# 自动检测语言
result = model.transcribe("audio.mp3")

# 指定语言(更快)
result = model.transcribe("audio.mp3", language="en")

# 支持:en, es, fr, de, it, pt, ru, ja, ko, zh, 和 89 更多

任务选择

# 转录(默认)
result = model.transcribe("audio.mp3", task="transcribe")

# 翻译到英语
result = model.transcribe("spanish.mp3", task="translate")
# 输入:西班牙语音频 → 输出:英语文本

初始提示

# 通过上下文提高准确性
result = model.transcribe(
    "audio.mp3",
    initial_prompt="这是一个关于机器学习和 AI 的技术播客。"
)

# 有助于:
# - 技术术语
# - 专有名词
# - 领域特定词汇

时间戳

# 词级时间戳
result = model.transcribe("audio.mp3", word_timestamps=True)

for segment in result["segments"]:
    for word in segment["words"]:
        print(f"{word['word']} ({word['start']:.2f}s - {word['end']:.2f}s)")

温度回退

# 如果置信度低,用不同温度重试
result = model.transcribe(
    "audio.mp3",
    temperature=(0.0, 0.2, 0.4, 0.6, 0.8, 1.0)
)

命令行使用

# 基本转录
whisper audio.mp3

# 指定模型
whisper audio.mp3 --model turbo

# 输出格式
whisper audio.mp3 --output_format txt     # 纯文本
whisper audio.mp3 --output_format srt     # 字幕
whisper audio.mp3 --output_format vtt     # WebVTT
whisper audio.mp3 --output_format json    # 带时间戳的 JSON

# 语言
whisper audio.mp3 --language Spanish

# 翻译
whisper spanish.mp3 --task translate

批量处理

import os

audio_files = ["file1.mp3", "file2.mp3", "file3.mp3"]

for audio_file in audio_files:
    print(f"转录 {audio_file}...")
    result = model.transcribe(audio_file)

    # 保存到文件
    output_file = audio_file.replace(".mp3", ".txt")
    with open(output_file, "w") as f:
        f.write(result["text"])

实时转录

# 对于流式音频,使用 faster-whisper
# pip install faster-whisper

from faster_whisper import WhisperModel

model = WhisperModel("base", device="cuda", compute_type="float16")

# 转录流式
segments, info = model.transcribe("audio.mp3", beam_size=5)

for segment in segments:
    print(f"[{segment.start:.2f}s -> {segment.end:.2f}s] {segment.text}")

GPU 加速

import whisper

# 如果可用,自动使用 GPU
model = whisper.load_model("turbo")

# 强制 CPU
model = whisper.load_model("turbo", device="cpu")

# 强制 GPU
model = whisper.load_model("turbo", device="cuda")

# 在 GPU 上快 10-20 倍

与其他工具集成

字幕生成

# 生成 SRT 字幕
whisper video.mp4 --output_format srt --language English

# 输出:video.srt

与 LangChain

from langchain.document_loaders import WhisperTranscriptionLoader

loader = WhisperTranscriptionLoader(file_path="audio.mp3")
docs = loader.load()

# 在 RAG 中使用转录
from langchain_chroma import Chroma
from langchain_openai import OpenAIEmbeddings

vectorstore = Chroma.from_documents(docs, OpenAIEmbeddings())

从视频提取音频

# 使用 ffmpeg 提取音频
ffmpeg -i video.mp4 -vn -acodec pcm_s16le audio.wav

# 然后转录
whisper audio.wav

最佳实践

  1. 使用 turbo 模型 - 对英语最佳速度/质量
  2. 指定语言 - 比自动检测更快
  3. 添加初始提示 - 提高技术术语
  4. 使用 GPU - 快 10-20 倍
  5. 批量处理 - 更高效
  6. 转换为 WAV - 更好兼容性
  7. 分割长音频 - <30 分钟块
  8. 检查语言支持 - 质量因语言而异
  9. 使用 faster-whisper - 比 openai-whisper 快 4 倍
  10. 监控 VRAM - 根据硬件缩放模型大小

性能

模型 实时因子(CPU) 实时因子(GPU)
tiny ~0.32 ~0.01
base ~0.16 ~0.01
turbo ~0.08 ~0.01
large ~1.0 ~0.05

实时因子:0.1 = 比实时快 10 倍

语言支持

顶级支持语言:

  • 英语 (en)
  • 西班牙语 (es)
  • 法语 (fr)
  • 德语 (de)
  • 意大利语 (it)
  • 葡萄牙语 (pt)
  • 俄语 (ru)
  • 日语 (ja)
  • 韩语 (ko)
  • 中文 (zh)

完整列表:总共 99 种语言

限制

  1. 幻觉 - 可能重复或发明文本
  2. 长形式准确性 - 在 >30 分钟音频上退化
  3. 说话人识别 - 无分割
  4. 口音 - 质量变化
  5. 背景噪声 - 可能影响准确性
  6. 实时延迟 - 不适合实时字幕

资源