专栏名称: 数据派THU
本订阅号是“THU数据派”的姊妹账号,致力于传播大数据价值、培养数据思维。
今天看啥  ›  专栏  ›  数据派THU

深入理解GPU内存分配:机器学习工程师的实用指南与实验(附代码)

数据派THU  · 公众号  · 大数据  · 2024-09-12 17:00

主要观点总结

本文介绍了GPU内存分配的核心概念,并通过实验展示了PyTorch中预留与分配内存的方式,数据类型、数据块、可训练参数、中间张量以及优化器在GPU内存分配中的影响。通过分析和计算,得出了GPU内存分配的一些关键规律,如模型大小、内存块、cublas内存、梯度、中间张量和优化器所需的内存量。同时,也探讨了如何计算不同架构(如CNN、Transformers、RNN)的内存需求。

关键观点总结

关键观点1: GPU内存分配概念

文章介绍了GPU内存分配的核心概念,并通过实验展示了PyTorch中预留与分配内存的方式。

关键观点2: 数据类型与内存分配

文章详细解释了数据类型如float32、bfloat16等对内存分配的影响,并展示了不同数据类型的内存分配情况。

关键观点3: 内存块分配与中间张量

文章讨论了内存块分配以及中间张量在GPU内存分配中的作用,说明了中间张量对内存需求的影响。

关键观点4: 可训练参数与梯度

文章分析了可训练参数和梯度在GPU内存分配中的作用,并展示了梯度与模型大小相同,即梯度需要存储模型参数的副本。

关键观点5: 优化器与内存分配

文章讨论了优化器在GPU内存分配中的影响,指出优化器至少分配一倍的模型大小,且其内存需求与使用的优化器类型有关。


文章预览

来源:DeepHub IMBA 本文 约6200字 ,建议阅读 12分钟 本文 将帮助你理解GPU内存分配核心概念。 给定一个模型架构、数据类型、输入形状和优化器,你能否计算出前向传播和反向传播所需的GPU内存量?要回答这个问题,我们需要将流程分解为基本组件,并从底层理解内存需求。以下实验(可以在Google Colab上运行)将帮助你理解核心概念。 预留与分配 PyTorch预留了更多内存,但只分配所需的内存。这样做是为了在需要更多内存时能够快速分配,而不是进行昂贵的预留操作。我们只关心内存分配,而不关心预留。 def test_reservation_vs_allocation(): print(f"Base memory reserved: {torch.cuda.memory_reserved(device_id)}") print(f"Base memory allocated: {torch.cuda.memory_allocated(device_id)}") # Allocate some memory x = torch.randn((1024,), dtype=torch.float32, device=device) print(f"Memory after allocation (reserved): {tor ………………………………

原文地址:访问原文地址
快照地址: 访问文章快照
总结与预览地址:访问总结与预览