专栏名称: 斌叔OKmath
橙旭园CEO 教育博主 教育部双创优秀导师。前微软员工。橙旭园儿童编程创始人。
今天看啥  ›  专栏  ›  斌叔OKmath

来自@GoogleDeepMind、 @Intel和@Georg-20240822080504

斌叔OKmath  · 微博  ·  · 2024-08-22 08:05

文章预览

2024-08-22 08:05 本条微博链接 来自 @GoogleDeepMind 、 @Intel和 @GeorgiaTech的 Wild Paper 无需乘法的 LLM 训练 - 将 OPT-66B 和 LLaMA-2-70B 模型的内存使用量减少 80% 以上。 问题🔍 : 现有的 LLM 效率方法仍然依赖于昂贵的乘法,而重新参数化技术通常需要重新训练或大量微调。 本文的解决方案🛠️ : - ShiftAddLLM 为 LLM 引入了训练后移位和添加重新参数化。 - 重新参数化:用两个更简单的运算代替乘法: 👉移位:例如将小数点向左或向 ………………………………

原文地址:访问原文地址
快照地址: 访问文章快照
总结与预览地址:访问总结与预览