name: nemo-curator description: GPU 加速的 LLM 训练数据整理。支持文本/图像/视频/音频。特点包括模糊去重(快 16 倍)、质量过滤(30+ 启发式)、语义去重、PII 脱敏、NSFW 检测。使用 RAPIDS 跨 GPU 扩展。用于准备高质量训练数据集、清洗网络数据或去重大型语料库。 version: 1.0.0 author: Orchestra Research license: MIT tags: [数据处理, NeMo Curator, 数据整理, GPU 加速, 去重, 质量过滤, NVIDIA, RAPIDS, PII 脱敏, 多模态, LLM 训练数据] dependencies: [nemo-curator, cudf, dask, rapids]
NeMo Curator - GPU 加速数据整理
NVIDIA 的工具包,用于准备高质量的 LLM 训练数据。
何时使用 NeMo Curator
在以下情况下使用 NeMo Curator:
- 从网络抓取(如 Common Crawl)准备 LLM 训练数据
- 需要快速去重(比 CPU 快 16 倍)
- 整理多模态数据集(文本、图像、视频、音频)
- 过滤低质量或有毒内容
- 跨 GPU 集群扩展数据处理
性能:
- 模糊去重快 16 倍(8TB RedPajama v2)
- 总成本降低 40% 相对于 CPU 方案
- 近线性扩展跨 GPU 节点
使用替代方案:
- datatrove:基于 CPU 的开源数据处理
- dolma:Allen AI 的数据工具包
- Ray Data:通用 ML 数据处理(无整理焦点)
快速开始
安装
# 文本整理(CUDA 12)
uv pip install "nemo-curator[text_cuda12]"
# 所有模态
uv pip install "nemo-curator[all_cuda12]"
# 仅 CPU(较慢)
uv pip install "nemo-curator[cpu]"
基本文本整理流程
from nemo_curator import ScoreFilter, Modify
from nemo_curator.datasets import DocumentDataset
import pandas as pd
# 加载数据
df = pd.DataFrame({"text": ["好文档", "差文档", "优秀文本"]})
dataset = DocumentDataset(df)
# 质量过滤
def quality_score(doc):
return len(doc["text"].split()) > 5 # 过滤短文档
filtered = ScoreFilter(quality_score)(dataset)
# 去重
from nemo_curator.modules import ExactDuplicates
deduped = ExactDuplicates()(filtered)
# 保存
deduped.to_parquet("curated_data/")
数据整理流程
阶段 1:质量过滤
from nemo_curator.filters import (
WordCountFilter,
RepeatedLinesFilter,
UrlRatioFilter,
NonAlphaNumericFilter
)
# 应用 30+ 启发式过滤器
from nemo_curator import ScoreFilter
# 字数过滤器
dataset = dataset.filter(WordCountFilter(min_words=50, max_words=100000))
# 移除重复内容
dataset = dataset.filter(RepeatedLinesFilter(max_repeated_line_fraction=0.3))
# URL 比例过滤器
dataset = dataset.filter(UrlRatioFilter(max_url_ratio=0.2))
阶段 2:去重
精确去重:
from nemo_curator.modules import ExactDuplicates
# 移除精确重复
deduped = ExactDuplicates(id_field="id", text_field="text")(dataset)
模糊去重(GPU 上快 16 倍):
from nemo_curator.modules import FuzzyDuplicates
# MinHash + LSH 去重
fuzzy_dedup = FuzzyDuplicates(
id_field="id",
text_field="text",
num_hashes=260, # MinHash 参数
num_buckets=20,
hash_method="md5"
)
deduped = fuzzy_dedup(dataset)
语义去重:
from nemo_curator.modules import SemanticDuplicates
# 基于嵌入的去重
semantic_dedup = SemanticDuplicates(
id_field="id",
text_field="text",
embedding_model="sentence-transformers/all-MiniLM-L6-v2",
threshold=0.8 # 余弦相似度阈值
)
deduped = semantic_dedup(dataset)
阶段 3:PII 脱敏
from nemo_curator.modules import Modify
from nemo_curator.modifiers import PIIRedactor
# 脱敏个人可识别信息
pii_redactor = PIIRedactor(
supported_entities=["EMAIL_ADDRESS", "PHONE_NUMBER", "PERSON", "LOCATION"],
anonymize_action="replace" # 或 "redact"
)
redacted = Modify(pii_redactor)(dataset)
阶段 4:分类器过滤
from nemo_curator.classifiers import QualityClassifier
# 质量分类
quality_clf = QualityClassifier(
model_path="nvidia/quality-classifier-deberta",
batch_size=256,
device="cuda"
)
# 过滤低质量文档
high_quality = dataset.filter(lambda doc: quality_clf(doc["text"]) > 0.5)
GPU 加速
GPU 与 CPU 性能对比
| 操作 | CPU(16 核) | GPU(A100) | 加速比 |
|---|---|---|---|
| 模糊去重(8TB) | 120 小时 | 7.5 小时 | 16× |
| 精确去重(1TB) | 8 小时 | 0.5 小时 | 16× |
| 质量过滤 | 2 小时 | 0.2 小时 | 10× |
多 GPU 扩展
from nemo_curator import get_client
import dask_cuda
# 初始化 GPU 集群
client = get_client(cluster_type="gpu", n_workers=8)
# 使用 8 个 GPU 处理
deduped = FuzzyDuplicates(...)(dataset)
多模态整理
图像整理
from nemo_curator.image import (
AestheticFilter,
NSFWFilter,
CLIPEmbedder
)
# 美学评分
aesthetic_filter = AestheticFilter(threshold=5.0)
filtered_images = aesthetic_filter(image_dataset)
# NSFW 检测
nsfw_filter = NSFWFilter(threshold=0.9)
safe_images = nsfw_filter(filtered_images)
# 生成 CLIP 嵌入
clip_embedder = CLIPEmbedder(model="openai/clip-vit-base-patch32")
image_embeddings = clip_embedder(safe_images)
视频整理
from nemo_curator.video import (
SceneDetector,
ClipExtractor,
InternVideo2Embedder
)
# 检测场景
scene_detector = SceneDetector(threshold=27.0)
scenes = scene_detector(video_dataset)
# 提取片段
clip_extractor = ClipExtractor(min_duration=2.0, max_duration=10.0)
clips = clip_extractor(scenes)
# 生成嵌入
video_embedder = InternVideo2Embedder()
video_embeddings = video_embedder(clips)
音频整理
from nemo_curator.audio import (
ASRInference,
WERFilter,
DurationFilter
)
# ASR 转录
asr = ASRInference(model="nvidia/stt_en_fastconformer_hybrid_large_pc")
transcribed = asr(audio_dataset)
# 按 WER(词错误率)过滤
wer_filter = WERFilter(max_wer=0.3)
high_quality_audio = wer_filter(transcribed)
# 时长过滤
duration_filter = DurationFilter(min_duration=1.0, max_duration=30.0)
filtered_audio = duration_filter(high_quality_audio)
常见模式
网络抓取整理(Common Crawl)
from nemo_curator import ScoreFilter, Modify
from nemo_curator.filters import *
from nemo_curator.modules import *
from nemo_curator.datasets import DocumentDataset
# 加载 Common Crawl 数据
dataset = DocumentDataset.read_parquet("common_crawl/*.parquet")
# 流程
pipeline = [
# 1. 质量过滤
WordCountFilter(min_words=100, max_words=50000),
RepeatedLinesFilter(max_repeated_line_fraction=0.2),
SymbolToWordRatioFilter(max_symbol_to_word_ratio=0.3),
UrlRatioFilter(max_url_ratio=0.3),
# 2. 语言过滤
LanguageIdentificationFilter(target_languages=["en"]),
# 3. 去重
ExactDuplicates(id_field="id", text_field="text"),
FuzzyDuplicates(id_field="id", text_field="text", num_hashes=260),
# 4. PII 脱敏
PIIRedactor(),
# 5. NSFW 过滤
NSFWClassifier(threshold=0.8)
]
# 执行
for stage in pipeline:
dataset = stage(dataset)
# 保存
dataset.to_parquet("curated_common_crawl/")
分布式处理
from nemo_curator import get_client
from dask_cuda import LocalCUDACluster
# 多 GPU 集群
cluster = LocalCUDACluster(n_workers=8)
client = get_client(cluster=cluster)
# 处理大型数据集
dataset = DocumentDataset.read_parquet("s3://large_dataset/*.parquet")
deduped = FuzzyDuplicates(...)(dataset)
# 清理
client.close()
cluster.close()
性能基准
模糊去重(8TB RedPajama v2)
- CPU(256 核):120 小时
- GPU(8× A100):7.5 小时
- 加速比:16×
精确去重(1TB)
- CPU(64 核):8 小时
- GPU(4× A100):0.5 小时
- 加速比:16×
质量过滤(100GB)
- CPU(32 核):2 小时
- GPU(2× A100):0.2 小时
- 加速比:10×
成本对比
基于 CPU 的整理(AWS c5.18xlarge × 10):
- 成本:$3.60/小时 × 10 = $36/小时
- 8TB 所需时间:120 小时
- 总计:$4,320
基于 GPU 的整理(AWS p4d.24xlarge × 2):
- 成本:$32.77/小时 × 2 = $65.54/小时
- 8TB 所需时间:7.5 小时
- 总计:$491.55
节省:89% 减少(节省 $3,828)
支持的数据格式
- 输入:Parquet、JSONL、CSV
- 输出:Parquet(推荐)、JSONL
- WebDataset:用于多模态的 TAR 存档
使用案例
生产部署:
- NVIDIA 使用 NeMo Curator 准备 Nemotron-4 训练数据
- 开源数据集整理:RedPajama v2、The Pile
参考文献
资源
- GitHub:https://github.com/NVIDIA/NeMo-Curator ⭐ 500+
- 文档:https://docs.nvidia.com/nemo-framework/user-guide/latest/datacuration/
- 版本:0.4.0+
- 许可证:Apache 2.0