AxolotlLLM微调技能Skill axolotl

这个技能提供关于Axolotl框架的全面指导,用于大语言模型(LLM)的微调。它支持YAML配置、100+模型、LoRA/QLoRA、DPO/KTO/ORPO/GRPO等技术,以及多模态支持。适用于开发者进行模型微调、代码调试和最佳实践学习。关键词:Axolotl, LLM微调, YAML配置, LoRA, QLoRA, DPO, KTO, ORPO, GRPO, 多模态支持。

大模型微调 0 次安装 0 次浏览 更新于 3/21/2026

名称: axolotl 描述: 使用Axolotl进行LLM微调的专家指导 - YAML配置、100+模型、LoRA/QLoRA、DPO/KTO/ORPO/GRPO、多模态支持 版本: 1.0.0 作者: Orchestra Research 许可证: MIT 标签: [微调, Axolotl, LLM, LoRA, QLoRA, DPO, KTO, ORPO, GRPO, YAML, HuggingFace, DeepSpeed, 多模态] 依赖: [axolotl, torch, transformers, datasets, peft, accelerate, deepspeed]

Axolotl 技能

来自官方文档生成的Axolotl开发全面协助。

何时使用此技能

此技能应在以下情况下触发:

  • 使用axolotl时
  • 询问axolotl功能或API时
  • 实施axolotl解决方案时
  • 调试axolotl代码时
  • 学习axolotl最佳实践时

快速参考

常见模式

模式 1: 为了验证训练任务是否存在可接受的数据传输速度,运行NCCL测试可以帮助定位瓶颈,例如:

./build/all_reduce_perf -b 8 -e 128M -f 2 -g 3

模式 2: 在Axolotl YAML中配置模型以使用FSDP。例如:

fsdp_version: 2
fsdp_config:
  offload_params: true
  state_dict_type: FULL_STATE_DICT
  auto_wrap_policy: TRANSFORMER_BASED_WRAP
  transformer_layer_cls_to_wrap: LlamaDecoderLayer
  reshard_after_forward: true

模式 3: context_parallel_size 应该是GPU总数的除数。例如:

context_parallel_size

模式 4: 例如:- 使用8个GPU且无序列并行时:每步处理8个不同批次 - 使用8个GPU且context_parallel_size=4时:每步仅处理2个不同批次(每个跨4个GPU拆分) - 如果每个GPU的micro_batch_size为2,全局批次大小从16减少到4

context_parallel_size=4

模式 5: 在配置中设置save_compressed: true 可以以压缩格式保存模型,这:- 减少磁盘空间使用约40% - 保持与vLLM的兼容性以加速推理 - 保持与llmcompressor的兼容性以进一步优化(例如:量化)

save_compressed: true

模式 6: 注意:不必将集成放在integrations文件夹中。它可以位于任何位置,只要安装在Python环境中的包中。参见此仓库示例:https://github.com/axolotl-ai-cloud/diff-transformer

integrations

模式 7: 处理单样本和批处理数据。 - 单样本:sample[‘input_ids’] 是 list[int] - 批处理数据:sample[‘input_ids’] 是 list[list[int]]

utils.trainer.drop_long_seq(sample, sequence_len=2048, min_sequence_len=2)

示例代码模式

示例 1 (python):

cli.cloud.modal_.ModalCloud(config, app=None)

示例 2 (python):

cli.cloud.modal_.run_cmd(cmd, run_folder, volumes=None)

示例 3 (python):

core.trainers.base.AxolotlTrainer(
    *_args,
    bench_data_collator=None,
    eval_data_collator=None,
    dataset_tags=None,
    **kwargs,
)

示例 4 (python):

core.trainers.base.AxolotlTrainer.log(logs, start_time=None)

示例 5 (python):

prompt_strategies.input_output.RawInputOutputPrompter()

参考文件

此技能在 references/ 中包含全面文档:

使用 view 读取特定参考文件以获取详细信息。

使用此技能

对于初学者

从getting_started或tutorials参考文件开始,了解基础概念。

对于特定功能

使用适当类别的参考文件(api、guides等)获取详细信息。

对于代码示例

上面的快速参考部分包含从官方文档提取的常见模式。

资源

references/

从官方源提取的有组织文档。这些文件包含:

  • 详细解释
  • 带语言注释的代码示例
  • 指向原始文档的链接
  • 用于快速导航的目录

scripts/

在此添加常见自动化任务的辅助脚本。

assets/

在此添加模板、样板或示例项目。

备注

  • 此技能从官方文档自动生成
  • 参考文件保留源文档的结构和示例
  • 代码示例包括语言检测以更好地进行语法高亮
  • 快速参考模式从文档中的常见使用示例提取

更新

要使用更新后的文档刷新此技能:

  1. 以相同配置重新运行爬虫
  2. 技能将使用最新信息重建