关注图网络、图表示学习,最近顶会顶刊动态以及机器学习基本方法,包括无监督学习、半监督学习、弱监督学习、元学习等
今天看啥  ›  专栏  ›  深度图学习与大模型LLM

NeurIPS 2024 | SparseLLM:突破性全局剪枝技术,大语言模型稀疏化革命

深度图学习与大模型LLM  · 公众号  ·  · 2024-10-04 10:18

文章预览

NeurIPS 2024 | SparseLLM:突破性全局剪枝技术,大语言模型稀疏化革命 1.摘要 大型语言模型(LLMs)如 GPT 和 LLaMA 已经彻底改变了自然语言处理领域,但其计算成本极高。我们在论文中提出了 SparseLLM ,一种创新的全局剪枝框架,使得大规模模型压缩更加高效。 SparseLLM 通过将全局剪枝问题分解为更小的子问题,在保持卓越性能的同时实现了内存和计算效率,尤其在高稀疏率情况下表现尤为突出。 我们的方法在困惑度(perplexity)降低和灵活性上超越了当前的最先进方法 。 2.作者 Guangji Bai¹,Yijiang Li²,Chen Ling¹,Kibaek Kim²,Liang Zhao¹* ¹Emory University ²Argonne National Lab *Corresponding Author 论文链接:https://arxiv.org/abs/2402.17946 代码: https://github.com/BaiTheBest/SparseLLM 3.情景导入 随着大型语言模型(LLMs)如 GPT 和 LLaMA 在自然语言处理领域的突破,现如今的模型能 ………………………………

原文地址:访问原文地址
快照地址: 访问文章快照
总结与预览地址:访问总结与预览