专栏名称: 小白学视觉
本公众号主要介绍机器视觉基础知识和新闻,以及在学习机器视觉时遇到的各种纠结和坑的心路历程。
今天看啥  ›  专栏  ›  小白学视觉

PyTorch 节省显存的策略总结

小白学视觉  · 公众号  ·  · 2024-09-19 13:35

文章预览

点击上方 “ 小白学视觉 ”,选择加" 星标 "或“ 置顶 ” 重磅干货,第一时间送达 作者丨 OpenMMLab 来源丨 https://zhuanlan.zhihu.com/p/430123077 编辑丨极市平台 极市导读   随着深度学习快速发展,同时伴随着模型参数的爆炸式增长,对显卡的显存容量提出了越来越高的要求,如何在单卡小容量显卡上面训练模型是一直以来大家关心的问题。本文结合 MMCV 开源库对一些常用的节省显存策略进行了简要分析。   0 前言 本文涉及到的 PyTorch 节省显存的策略包括: 混合精度训练 大 batch 训练或者称为梯度累加 gradient checkpointing 梯度检查点 1 混合精度训练 混合精度训练全称为 Automatic Mixed Precision,简称为 AMP,也就是我们常说的 FP16。在前系列解读中已经详细分析了 AMP 原理、源码实现以及 MMCV 中如何一行代码使用 AMP,具体链接见: OpenMMLab:PyTorch 源码解读之 torch.c ………………………………

原文地址:访问原文地址
快照地址: 访问文章快照
总结与预览地址:访问总结与预览