专栏名称: GiantPandaCV
专注于机器学习、深度学习、计算机视觉、图像处理等多个方向技术分享。团队由一群热爱技术且热衷于分享的小伙伴组成。我们坚持原创,每天一到两篇原创技术分享。希望在传播知识、分享知识的同时能够启发你,大家一起共同进步(・ω<)☆
目录
相关文章推荐
今天看啥  ›  专栏  ›  GiantPandaCV

I-LLM:首次实现了LLM全整形量化,精度逼近浮点,超过Smooth/Omini/AffineQuant

GiantPandaCV  · 公众号  · 3D  · 2024-06-05 17:52
    

文章预览

作者丨Austin 来源丨https://zhuanlan.zhihu.com/p/701393483 编辑丨GiantPandaCV 宣传一下我们的工作I-LLM,(据我们所知)这是第一个在LLM上实现了integer-only量化的方法,精度逼近浮点,超过Smooth/Omini/Affine Quant等SOTA方法。 https:// arxiv.org/abs/2405.1784 9 单位:后摩智能、南京大学、东南大学 Abstract PTQ能够有效加速LLMs的推理。然而,现有针对LLM的PTQ方案在推理过程中仍然需要相当多的浮点操作,例如额外的量化和反量化操作,以及复杂的非线性算子(如RMSNorm和Softmax)。这些约束阻碍了LLMs在边缘和云端设备上的部署。我们认为LLMs integer-only量化的主要问题在于linear和non-linear计算时激活值中在跨channel和跨token维度上有巨大波动。 为了解决这个问题,我们提出了I-LLM,这是一种针对LLM量身定制的integer-only PTQ框架。具体来说,(1)我们开发了Fully-Smooth Block-Reconstruction (FSBR ………………………………

原文地址:访问原文地址
快照地址: 访问文章快照
总结与预览地址:访问总结与预览