文章预览
来 源:DeepHub IMBA 本文 约1800字 ,建议阅读 5分钟 本文带你 总结一些常用的加速策略。 Transformers 是一个强大的架构,但模型因其采用的自注意力机制,虽然能够有效地处理序列数据并捕获长距离依赖关系,但同时也容易导致在训练过程中出现OOM(Out of Memory,内存不足)或者达到GPU的运行时限制。 主要是因为: 参数数量庞大: Transformer模型通常包含大量的参数,尤其是在模型层面进行扩展时(例如,增加层数或头数)。这些参数需要大量的内存来存储权重和梯度。 自注意力计算: 自注意力机制需要对输入序列的每个元素与其他所有元素计算其相互关系,导致计算复杂度和内存需求随着输入长度的增加而显著增加。对于非常长的序列,这一点尤其突出。 激活和中间状态存储: 在训练过程中,需要存储前向传播中的中间激活状态,以便于反向传播
………………………………