名称: pytorch-lightning 描述: 高级 PyTorch 框架,包含 Trainer 类、自动分布式训练(DDP/FSDP/DeepSpeed)、回调系统和最小化样板代码。使用相同代码从笔记本电脑扩展到超级计算机。当您希望拥有干净训练循环和内置最佳实践时使用。 版本: 1.0.0 作者: Orchestra Research 许可证: MIT 标签: [PyTorch Lightning, 训练框架, 分布式训练, DDP, FSDP, DeepSpeed, 高级API, 回调, 最佳实践, 可扩展] 依赖项: [lightning, torch, transformers]
PyTorch Lightning - 高级训练框架
快速开始
PyTorch Lightning 组织 PyTorch 代码以消除样板代码,同时保持灵活性。
安装:
pip install lightning
将 PyTorch 转换为 Lightning(3 步):
import lightning as L
import torch
from torch import nn
from torch.utils.data import DataLoader, Dataset
# 步骤 1:定义 LightningModule(组织您的 PyTorch 代码)
class LitModel(L.LightningModule):
def __init__(self, hidden_size=128):
super().__init__()
self.model = nn.Sequential(
nn.Linear(28 * 28, hidden_size),
nn.ReLU(),
nn.Linear(hidden_size, 10)
)
def training_step(self, batch, batch_idx):
x, y = batch
y_hat = self.model(x)
loss = nn.functional.cross_entropy(y_hat, y)
self.log('train_loss', loss) # 自动记录到 TensorBoard
return loss
def configure_optimizers(self):
return torch.optim.Adam(self.parameters(), lr=1e-3)
# 步骤 2:创建数据
train_loader = DataLoader(train_dataset, batch_size=32)
# 步骤 3:使用 Trainer 训练(处理一切!)
trainer = L.Trainer(max_epochs=10, accelerator='gpu', devices=2)
model = LitModel()
trainer.fit(model, train_loader)
就这样! Trainer 处理:
- GPU/TPU/CPU 切换
- 分布式训练(DDP、FSDP、DeepSpeed)
- 混合精度(FP16、BF16)
- 梯度积累
- 检查点保存
- 日志记录
- 进度条
常见工作流
工作流 1:从 PyTorch 到 Lightning
原始 PyTorch 代码:
model = MyModel()
optimizer = torch.optim.Adam(model.parameters())
model.to('cuda')
for epoch in range(max_epochs):
for batch in train_loader:
batch = batch.to('cuda')
optimizer.zero_grad()
loss = model(batch)
loss.backward()
optimizer.step()
Lightning 版本:
class LitModel(L.LightningModule):
def __init__(self):
super().__init__()
self.model = MyModel()
def training_step(self, batch, batch_idx):
loss = self.model(batch) # 无需 .to('cuda')!
return loss
def configure_optimizers(self):
return torch.optim.Adam(self.parameters())
# 训练
trainer = L.Trainer(max_epochs=10, accelerator='gpu')
trainer.fit(LitModel(), train_loader)
好处: 40+ 行 → 15 行,无设备管理,自动分布式
工作流 2:验证和测试
class LitModel(L.LightningModule):
def __init__(self):
super().__init__()
self.model = MyModel()
def training_step(self, batch, batch_idx):
x, y = batch
y_hat = self.model(x)
loss = nn.functional.cross_entropy(y_hat, y)
self.log('train_loss', loss)
return loss
def validation_step(self, batch, batch_idx):
x, y = batch
y_hat = self.model(x)
val_loss = nn.functional.cross_entropy(y_hat, y)
acc = (y_hat.argmax(dim=1) == y).float().mean()
self.log('val_loss', val_loss)
self.log('val_acc', acc)
def test_step(self, batch, batch_idx):
x, y = batch
y_hat = self.model(x)
test_loss = nn.functional.cross_entropy(y_hat, y)
self.log('test_loss', test_loss)
def configure_optimizers(self):
return torch.optim.Adam(self.parameters(), lr=1e-3)
# 带验证的训练
trainer = L.Trainer(max_epochs=10)
trainer.fit(model, train_loader, val_loader)
# 测试
trainer.test(model, test_loader)
自动功能:
- 验证默认每轮运行
- 指标记录到 TensorBoard
- 基于 val_loss 的最佳模型检查点保存
工作流 3:分布式训练(DDP)
# 与单 GPU 相同代码!
model = LitModel()
# 8 GPU 使用 DDP(自动!)
trainer = L.Trainer(
accelerator='gpu',
devices=8,
strategy='ddp' # 或 'fsdp'、'deepspeed'
)
trainer.fit(model, train_loader)
启动:
# 单个命令,Lightning 处理其余部分
python train.py
无需更改:
- 自动数据分布
- 梯度同步
- 多节点支持(只需设置
num_nodes=2)
工作流 4:用于监控的回调
from lightning.pytorch.callbacks import ModelCheckpoint, EarlyStopping, LearningRateMonitor
# 创建回调
checkpoint = ModelCheckpoint(
monitor='val_loss',
mode='min',
save_top_k=3,
filename='model-{epoch:02d}-{val_loss:.2f}'
)
early_stop = EarlyStopping(
monitor='val_loss',
patience=5,
mode='min'
)
lr_monitor = LearningRateMonitor(logging_interval='epoch')
# 添加到 Trainer
trainer = L.Trainer(
max_epochs=100,
callbacks=[checkpoint, early_stop, lr_monitor]
)
trainer.fit(model, train_loader, val_loader)
结果:
- 自动保存最佳 3 个模型
- 如果 5 轮无改进则提前停止
- 将学习率记录到 TensorBoard
工作流 5:学习率调度
class LitModel(L.LightningModule):
# ...(training_step 等)
def configure_optimizers(self):
optimizer = torch.optim.Adam(self.parameters(), lr=1e-3)
# 余弦退火
scheduler = torch.optim.lr_scheduler.CosineAnnealingLR(
optimizer,
T_max=100,
eta_min=1e-5
)
return {
'optimizer': optimizer,
'lr_scheduler': {
'scheduler': scheduler,
'interval': 'epoch', # 每轮更新
'frequency': 1
}
}
# 学习率自动记录!
trainer = L.Trainer(max_epochs=100)
trainer.fit(model, train_loader)
何时使用与替代方案
使用 PyTorch Lightning 当:
- 希望代码干净、组织良好
- 需要生产就绪的训练循环
- 在单 GPU、多 GPU、TPU 之间切换
- 想要内置回调和日志记录
- 团队协作(标准化结构)
关键优势:
- 组织性: 将研究代码与工程分离
- 自动性: DDP、FSDP、DeepSpeed 只需一行
- 回调: 模块化训练扩展
- 可重现: 较少样板代码 = 较少错误
- 经过测试: 每月 100 万+ 下载,经过实战检验
使用替代方案替代:
- Accelerate: 对现有代码最小更改,更多灵活性
- Ray Train: 多节点编排、超参数调优
- 原始 PyTorch: 最大控制,学习目的
- Keras: TensorFlow 生态系统
常见问题
问题:损失未下降
检查数据和模型设置:
# 添加到 training_step
def training_step(self, batch, batch_idx):
if batch_idx == 0:
print(f"批次形状: {batch[0].shape}")
print(f"标签: {batch[1]}")
loss = ...
return loss
问题:内存不足
减少批次大小或使用梯度积累:
trainer = L.Trainer(
accumulate_grad_batches=4, # 有效批次 = batch_size × 4
precision='bf16' # 或 'fp16',减少内存 50%
)
问题:验证未运行
确保传递 val_loader:
# 错误
trainer.fit(model, train_loader)
# 正确
trainer.fit(model, train_loader, val_loader)
问题:DDP 意外产生多个进程
Lightning 自动检测 GPU。显式设置设备:
# 首先在 CPU 上测试
trainer = L.Trainer(accelerator='cpu', devices=1)
# 然后 GPU
trainer = L.Trainer(accelerator='gpu', devices=1)
高级主题
回调: 参见 references/callbacks.md 了解 EarlyStopping、ModelCheckpoint、自定义回调和回调钩子。
分布式策略: 参见 references/distributed.md 了解 DDP、FSDP、DeepSpeed ZeRO 集成、多节点设置。
超参数调优: 参见 references/hyperparameter-tuning.md 了解与 Optuna、Ray Tune 和 WandB sweeps 的集成。
硬件要求
- CPU: 可用(适合调试)
- 单 GPU: 可用
- 多 GPU: DDP(默认)、FSDP 或 DeepSpeed
- 多节点: DDP、FSDP、DeepSpeed
- TPU: 支持(8 核)
- Apple MPS: 支持
精度选项:
- FP32(默认)
- FP16(V100、旧 GPU)
- BF16(A100/H100,推荐)
- FP8(H100)
资源
- 文档: https://lightning.ai/docs/pytorch/stable/
- GitHub: https://github.com/Lightning-AI/pytorch-lightning ⭐ 29,000+
- 版本: 2.5.5+
- 示例: https://github.com/Lightning-AI/pytorch-lightning/tree/master/examples
- Discord: https://discord.gg/lightning-ai
- 使用者: Kaggle 获胜者、研究实验室、生产团队