名称: hugging-face-datasets 描述: 在Hugging Face Hub上创建和管理数据集。支持初始化仓库、定义配置/系统提示、流式行更新和基于SQL的数据集查询/转换。设计为与HF MCP服务器协同工作,提供全面的数据集工作流程。
概述
此技能提供工具来管理Hugging Face Hub上的数据集,专注于创建、配置、内容管理和基于SQL的数据操作。它旨在补充现有的Hugging Face MCP服务器,提供数据集编辑和查询功能。
与HF MCP服务器的集成
- 使用HF MCP服务器用于: 数据集发现、搜索和元数据检索
- 使用此技能用于: 数据集创建、内容编辑、SQL查询、数据转换和结构化数据格式化
版本
2.1.0
依赖项
此技能使用PEP 723脚本,带有内联依赖管理
脚本在运行时自动安装依赖项:uv run scripts/script_name.py
- uv (Python包管理器)
- 入门指南: 参见下面的“使用说明”了解PEP 723用法
核心能力
1. 数据集生命周期管理
- 初始化: 创建具有适当结构的新数据集仓库
- 配置: 存储详细配置,包括系统提示和元数据
- 流式更新: 无需下载整个数据集即可高效添加行
2. 基于SQL的数据集查询(新功能)
通过scripts/sql_manager.py使用DuckDB SQL查询任何Hugging Face数据集:
- 直接查询: 使用
hf://协议在数据集上运行SQL - 模式发现: 描述数据集结构和列类型
- 数据抽样: 获取随机样本进行探索
- 聚合: 计数、直方图、唯一值分析
- 转换: 使用SQL过滤、连接、重塑数据
- 导出和推送: 将结果本地保存或推送到新的Hub仓库
3. 多格式数据集支持
通过模板系统支持多种数据集类型:
- 聊天/对话: 聊天模板、多轮对话、工具使用示例
- 文本分类: 情感分析、意图检测、主题分类
- 问答: 阅读理解、事实性问答、知识库
- 文本补全: 语言建模、代码补全、创意写作
- 表格数据: 用于回归/分类任务的结构化数据
- 自定义格式: 灵活的模式定义,满足专业需求
4. 质量保证功能
- JSON验证: 确保上传时的数据完整性
- 批处理: 高效处理大型数据集
- 错误恢复: 优雅处理上传失败和冲突
使用说明
此技能包含两个使用PEP 723内联依赖管理的Python脚本:
所有路径均相对于包含此SKILL.md文件的目录。 脚本运行方式:
uv run scripts/script_name.py [参数]
scripts/dataset_manager.py- 数据集创建和管理scripts/sql_manager.py- 基于SQL的数据集查询和转换
先决条件
- 安装
uv包管理器 - 必须设置
HF_TOKEN环境变量,包含具有写访问权限的令牌
SQL数据集查询 (sql_manager.py)
使用DuckDB SQL查询、转换和推送Hugging Face数据集。hf://协议提供对任何公共数据集(或带有令牌的私有数据集)的直接访问。
快速开始
# 查询数据集
uv run scripts/sql_manager.py query \
--dataset "cais/mmlu" \
--sql "SELECT * FROM data WHERE subject='nutrition' LIMIT 10"
# 获取数据集模式
uv run scripts/sql_manager.py describe --dataset "cais/mmlu"
# 随机抽样行
uv run scripts/sql_manager.py sample --dataset "cais/mmlu" --n 5
# 带过滤器的计数行
uv run scripts/sql_manager.py count --dataset "cais/mmlu" --where "subject='nutrition'"
SQL查询语法
在SQL中使用data作为表名 - 它会被实际的hf://路径替换:
-- 基本选择
SELECT * FROM data LIMIT 10
-- 过滤
SELECT * FROM data WHERE subject='nutrition'
-- 聚合
SELECT subject, COUNT(*) as cnt FROM data GROUP BY subject ORDER BY cnt DESC
-- 列选择和转换
SELECT question, choices[answer] AS correct_answer FROM data
-- 正则匹配
SELECT * FROM data WHERE regexp_matches(question, 'nutrition|diet')
-- 字符串函数
SELECT regexp_replace(question, '
', '') AS cleaned FROM data
常见操作
1. 探索数据集结构
# 获取模式
uv run scripts/sql_manager.py describe --dataset "cais/mmlu"
# 获取列中的唯一值
uv run scripts/sql_manager.py unique --dataset "cais/mmlu" --column "subject"
# 获取值分布
uv run scripts/sql_manager.py histogram --dataset "cais/mmlu" --column "subject" --bins 20
2. 过滤和转换
# 使用SQL进行复杂过滤
uv run scripts/sql_manager.py query \
--dataset "cais/mmlu" \
--sql "SELECT subject, COUNT(*) as cnt FROM data GROUP BY subject HAVING cnt > 100"
# 使用transform命令
uv run scripts/sql_manager.py transform \
--dataset "cais/mmlu" \
--select "subject, COUNT(*) as cnt" \
--group-by "subject" \
--order-by "cnt DESC" \
--limit 10
3. 创建子集并推送到Hub
# 查询并推送到新数据集
uv run scripts/sql_manager.py query \
--dataset "cais/mmlu" \
--sql "SELECT * FROM data WHERE subject='nutrition'" \
--push-to "username/mmlu-nutrition-subset" \
--private
# 转换并推送
uv run scripts/sql_manager.py transform \
--dataset "ibm/duorc" \
--config "ParaphraseRC" \
--select "question, answers" \
--where "LENGTH(question) > 50" \
--push-to "username/duorc-long-questions"
4. 导出到本地文件
# 导出到Parquet
uv run scripts/sql_manager.py export \
--dataset "cais/mmlu" \
--sql "SELECT * FROM data WHERE subject='nutrition'" \
--output "nutrition.parquet" \
--format parquet
# 导出到JSONL
uv run scripts/sql_manager.py export \
--dataset "cais/mmlu" \
--sql "SELECT * FROM data LIMIT 100" \
--output "sample.jsonl" \
--format jsonl
5. 处理数据集配置/分割
# 指定配置(子集)
uv run scripts/sql_manager.py query \
--dataset "ibm/duorc" \
--config "ParaphraseRC" \
--sql "SELECT * FROM data LIMIT 5"
# 指定分割
uv run scripts/sql_manager.py query \
--dataset "cais/mmlu" \
--split "test" \
--sql "SELECT COUNT(*) FROM data"
# 查询所有分割
uv run scripts/sql_manager.py query \
--dataset "cais/mmlu" \
--split "*" \
--sql "SELECT * FROM data LIMIT 10"
6. 使用完整路径的原始SQL
对于复杂查询或连接数据集:
uv run scripts/sql_manager.py raw --sql "
SELECT a.*, b.*
FROM 'hf://datasets/dataset1@~parquet/default/train/*.parquet' a
JOIN 'hf://datasets/dataset2@~parquet/default/train/*.parquet' b
ON a.id = b.id
LIMIT 100
"
Python API用法
from sql_manager import HFDatasetSQL
sql = HFDatasetSQL()
# 查询
results = sql.query("cais/mmlu", "SELECT * FROM data WHERE subject='nutrition' LIMIT 10")
# 获取模式
schema = sql.describe("cais/mmlu")
# 抽样
samples = sql.sample("cais/mmlu", n=5, seed=42)
# 计数
count = sql.count("cais/mmlu", where="subject='nutrition'")
# 直方图
dist = sql.histogram("cais/mmlu", "subject")
# 过滤和转换
results = sql.filter_and_transform(
"cais/mmlu",
select="subject, COUNT(*) as cnt",
group_by="subject",
order_by="cnt DESC",
limit=10
)
# 推送到Hub
url = sql.push_to_hub(
"cais/mmlu",
"username/nutrition-subset",
sql="SELECT * FROM data WHERE subject='nutrition'",
private=True
)
# 本地导出
sql.export_to_parquet("cais/mmlu", "output.parquet", sql="SELECT * FROM data LIMIT 100")
sql.close()
HF路径格式
DuckDB使用hf://协议访问数据集:
hf://datasets/{dataset_id}@{revision}/{config}/{split}/*.parquet
示例:
hf://datasets/cais/mmlu@~parquet/default/train/*.parquethf://datasets/ibm/duorc@~parquet/ParaphraseRC/test/*.parquet
@~parquet修订版为任何数据集格式提供自动转换的Parquet文件。
有用的DuckDB SQL函数
-- 字符串函数
LENGTH(column) -- 字符串长度
regexp_replace(col, '
', '') -- 正则替换
regexp_matches(col, 'pattern') -- 正则匹配
LOWER(col), UPPER(col) -- 大小写转换
-- 数组函数
choices[0] -- 数组索引(从0开始)
array_length(choices) -- 数组长度
unnest(choices) -- 展开数组为行
-- 聚合
COUNT(*), SUM(col), AVG(col)
GROUP BY col HAVING condition
-- 抽样
USING SAMPLE 10 -- 随机样本
USING SAMPLE 10 (RESERVOIR, 42) -- 可重复样本
-- 窗口函数
ROW_NUMBER() OVER (PARTITION BY col ORDER BY col2)
数据集创建 (dataset_manager.py)
推荐工作流程
1. 发现(使用HF MCP服务器):
# 使用HF MCP工具查找现有数据集
search_datasets("对话式AI训练")
get_dataset_details("username/dataset-name")
2. 创建(使用此技能):
# 初始化新数据集
uv run scripts/dataset_manager.py init --repo_id "your-username/dataset-name" [--private]
# 使用详细系统提示进行配置
uv run scripts/dataset_manager.py config --repo_id "your-username/dataset-name" --system_prompt "$(cat system_prompt.txt)"
3. 内容管理(使用此技能):
# 使用任何模板快速设置
uv run scripts/dataset_manager.py quick_setup \
--repo_id "your-username/dataset-name" \
--template classification
# 使用模板验证添加数据
uv run scripts/dataset_manager.py add_rows \
--repo_id "your-username/dataset-name" \
--template qa \
--rows_json "$(cat your_qa_data.json)"
基于模板的数据结构
1. 聊天模板 (--template chat)
{
"messages": [
{"role": "user", "content": "自然用户请求"},
{"role": "assistant", "content": "带工具使用的响应"},
{"role": "tool", "content": "工具响应", "tool_call_id": "call_123"}
],
"scenario": "用例描述",
"complexity": "简单|中级|高级"
}
2. 分类模板 (--template classification)
{
"text": "要分类的输入文本",
"label": "分类标签",
"confidence": 0.95,
"metadata": {"domain": "技术", "language": "en"}
}
3. QA模板 (--template qa)
{
"question": "被询问的问题是什么?",
"answer": "完整答案",
"context": "如果需要,额外上下文",
"answer_type": "事实性|解释性|意见性",
"difficulty": "简单|中等|困难"
}
4. 补全模板 (--template completion)
{
"prompt": "开始文本或上下文",
"completion": "预期续写",
"domain": "代码|创意|技术|对话",
"style": "写作风格描述"
}
5. 表格模板 (--template tabular)
{
"columns": [
{"name": "feature1", "type": "数值型", "description": "第一个特征"},
{"name": "target", "type": "分类型", "description": "目标变量"}
],
"data": [
{"feature1": 123, "target": "class_a"},
{"feature1": 456, "target": "class_b"}
]
}
高级系统提示模板
用于高质量训练数据生成:
您是一位擅长有效使用MCP工具的AI助手。
## MCP服务器定义
[定义可用服务器和工具]
## 训练示例结构
[指定聊天模板的确切JSON模式]
## 质量指南
[详细说明现实场景、渐进复杂性、正确工具使用的要求]
## 示例类别
[列出开发工作流程、调试场景、数据管理任务]
示例类别和模板
此技能包括除MCP使用之外的多样训练示例:
可用示例集:
training_examples.json- MCP工具使用示例(调试、项目设置、数据库分析)diverse_training_examples.json- 更广泛的场景,包括:- 教育聊天 - 解释编程概念、教程
- Git工作流程 - 功能分支、版本控制指导
- 代码分析 - 性能优化、架构审查
- 内容生成 - 专业写作、创意头脑风暴
- 代码库导航 - 遗留代码探索、系统分析
- 对话支持 - 问题解决、技术讨论
使用不同示例集:
# 添加MCP重点示例
uv run scripts/dataset_manager.py add_rows --repo_id "your-username/dataset-name" \
--rows_json "$(cat examples/training_examples.json)"
# 添加多样化对话示例
uv run scripts/dataset_manager.py add_rows --repo_id "your-username/dataset-name" \
--rows_json "$(cat examples/diverse_training_examples.json)"
# 混合两者以获取全面训练数据
uv run scripts/dataset_manager.py add_rows --repo_id "your-username/dataset-name" \
--rows_json "$(jq -s '.[0] + .[1]' examples/training_examples.json examples/diverse_training_examples.json)"
命令参考
列出可用模板:
uv run scripts/dataset_manager.py list_templates
快速设置(推荐):
uv run scripts/dataset_manager.py quick_setup --repo_id "your-username/dataset-name" --template classification
手动设置:
# 初始化仓库
uv run scripts/dataset_manager.py init --repo_id "your-username/dataset-name" [--private]
# 使用系统提示配置
uv run scripts/dataset_manager.py config --repo_id "your-username/dataset-name" --system_prompt "您的提示在这里"
# 使用验证添加数据
uv run scripts/dataset_manager.py add_rows \
--repo_id "your-username/dataset-name" \
--template qa \
--rows_json '[{"question": "什么是AI?", "answer": "人工智能..."}]'
查看数据集统计:
uv run scripts/dataset_manager.py stats --repo_id "your-username/dataset-name"
错误处理
- 仓库已存在:脚本会通知并继续配置
- 无效JSON:清晰的错误消息,带有解析详情
- 网络问题:自动重试以处理临时故障
- 令牌权限:在操作开始前进行验证
组合工作流程示例
示例1:从现有数据集创建训练子集
# 1. 探索源数据集
uv run scripts/sql_manager.py describe --dataset "cais/mmlu"
uv run scripts/sql_manager.py histogram --dataset "cais/mmlu" --column "subject"
# 2. 查询并创建子集
uv run scripts/sql_manager.py query \
--dataset "cais/mmlu" \
--sql "SELECT * FROM data WHERE subject IN ('nutrition', 'anatomy', 'clinical_knowledge')" \
--push-to "username/mmlu-medical-subset" \
--private
示例2:转换和重塑数据
# 将MMLU转换为带提取正确答案的QA格式
uv run scripts/sql_manager.py query \
--dataset "cais/mmlu" \
--sql "SELECT question, choices[answer] as correct_answer, subject FROM data" \
--push-to "username/mmlu-qa-format"
示例3:合并多个数据集分割
# 导出多个分割并组合
uv run scripts/sql_manager.py export \
--dataset "cais/mmlu" \
--split "*" \
--output "mmlu_all.parquet"
示例4:质量过滤
# 筛选高质量示例
uv run scripts/sql_manager.py query \
--dataset "squad" \
--sql "SELECT * FROM data WHERE LENGTH(context) > 500 AND LENGTH(question) > 20" \
--push-to "username/squad-filtered"
示例5:创建自定义训练数据集
# 1. 查询源数据
uv run scripts/sql_manager.py export \
--dataset "cais/mmlu" \
--sql "SELECT question, subject FROM data WHERE subject='nutrition'" \
--output "nutrition_source.jsonl" \
--format jsonl
# 2. 使用您的流水线处理(添加答案、格式化等)
# 3. 推送处理后的数据
uv run scripts/dataset_manager.py init --repo_id "username/nutrition-training"
uv run scripts/dataset_manager.py add_rows \
--repo_id "username/nutrition-training" \
--template qa \
--rows_json "$(cat processed_data.json)"