文章预览
PyTorch Async Checkpoint Save PyTorch博客资料:https://pytorch.org/blog/reducing-checkpointing-times/ PyTorch实现和使用Demo:https://github.com/pytorch/pytorch/blob/main/torch/distributed/checkpoint/state_dict_saver.py 功能介绍 在PyTorch 2.4之后,我们可以尝试使用PyTorch开发的异步Checkpoint保存功能,这个功能是和IBM联合开发的,在7B的大模型训练中,Checkpoint保存的时间从平均 148.8 秒缩短至 6.3 秒,快了 23.62 倍。这可以转化为以下两种好处: 在继续鲁棒的保存Checkpoint的同时,在每给定的 24 小时内实现更多净训练进度; 可以更频繁地进行Checkpoint保存以缩短训练恢复窗口或者时间。 从结果图来看,无论是单机的FSDP还是多机的HSDP,Async Checkpoint Save都展现出了很大的速度优势,对于参数量更大的模型预计收益会更大。目前在TorchTian(https://github.com/pytorch/torchtitan)中已经集成了这个新的功能,相
………………………………