今天看啥  ›  专栏  ›  数据派THU

从LLM中完全消除矩阵乘法,效果出奇得好,10亿参数跑在FPGA上接近大脑功耗

数据派THU  · 公众号  · 大数据  · 2024-06-23 17:00
来源:机器之心‍‍本文约3700字,建议阅读5分钟本文介绍了矩阵乘法(MatMul)中GPU专门针对MatMul操作进行优化的过程。让语言模型「轻装上阵」。一直以来,矩阵乘法(MatMul)稳居神经网络操作的主导地位,其中很大原因归结为 GPU 专门针对 MatMul 操作进行了优化。这种优化使得 AlexNet 在 ILSVRC2012 挑战赛中一举胜出,成为深度学习崛起的历史性标志。在这当中,有个值得注意的点是,AlexNet 利用 GPU 来提高训练速度,超越了 CPU 的能力,至此,GPU 的加入使得深度学习仿佛赢得了「硬件彩票」。尽管 MatMul 在深度学习中很流行,但不得不承认的是它占据了计算开销的主要部分,主要表现为 MatMul 在训练和推理阶段消耗大部分执行时间和内存访问。目前为止,研究者已经开始借助其他更简单的操作替代 MatMul,主要有两种。第一种策略是使用初等运算代替 ………………………………

原文地址:访问原文地址
快照地址: 访问文章快照