专栏名称: 极市平台
极市平台是由深圳极视角推出的专业的视觉算法开发与分发平台,为视觉开发者提供多领域实景训练数据库等开发工具和规模化销售渠道。本公众号将会分享视觉相关的技术资讯,行业动态,在线分享信息,线下活动等。 网站: http://cvmart.net/
今天看啥  ›  专栏  ›  极市平台

Inf-CL: 把 Contrastive Loss 的 Batch Size 冲到100M!

极市平台  · 公众号  · 科技自媒体  · 2024-11-24 22:00
    

主要观点总结

本文介绍了一种新的Contrastive Loss实现方式——Inf-CL,它通过分块计算策略,在单台A800机器上将batch size扩展到4M,几乎实现了Contrastive Loss batch size的无限扩展,突破了以往认为增加batch size会导致显存不足的限制。文章详细描述了Inf-CL的方法原理、实验结果的对比,包括显存节省度、速度和精度。

关键观点总结

关键观点1: 对比学习的重要性和限制

对比学习在多个领域如图文检索、图像自监督学习、文本检索中占据重要地位。但增大batch size或负样本会导致GPU显存爆炸,成为该领域的一个难题。

关键观点2: Inf-CL方法介绍

Inf-CL采用分块计算策略,通过减少显存占用实现大batch size的对比损失计算。包括前向传播和反向传播的过程以及Multi-Level Tiling策略。

关键观点3: 实验结果

实验结果显示,Inf-CL在降低显存占用的同时,只引入了极少的时间开销。并且在降低显存占用后,仍然保持了较高的训练速度和精度。

关键观点4: 相关工作与灵感来源

介绍了与本文相关的工作,如Gradient Cache、Flash Attention和Ring Attention等,这些工作为Inf-CL的灵感来源。


文章预览

↑ 点击 蓝字  关注极市平台 作者丨藤原豆腐皮儿@知乎(已授权) 来源丨https://zhuanlan.zhihu.com/p/1681887214 编辑丨极市平台 极市导读   本文介绍了一种新的Contrastive Loss实现方式——Inf-CL,它通过分块计算策略,在单台A800机器上将batch size扩展到4M,几乎实现了Contrastive Loss batch size的无限扩展,突破了以往认为增加batch size会导致显存不足的限制。   >> 加入极市CV技术交流群,走在计算机视觉的最前沿 TL;DR 本文提出了一种Contrastive Loss的实现方式( Inf-CL ),通过分块计算策略,我们在单台A800机器上就能把 batch size 扩展到 4M 。不严谨地说,该方案突破了以前公知的 ”contrastive loss不能scaling batch size,显存会炸“ 的前提,实现了 Contrastive Loss 的 batch size 近乎无限的扩展。 中国人不骗中国人,以后对比损失实现就用Inf-CL!! 对比学习有多炸不用多说,在 ………………………………

原文地址:访问原文地址
快照地址: 访问文章快照
总结与预览地址:访问总结与预览