注册
登录
专栏名称:
中国人工智能学会
关注中国人工智能学会官方公共账号,收取学会的科普信息、新闻动态、活动预告及人工智能领域科技前沿信息。
我也要提交微信公众号
今天看啥
微信公众号rss订阅, 微信rss, 稳定的RSS源
微信公众号RSS订阅方法
B站投稿RSS订阅方法
雪球动态RSS订阅方法
微博RSS订阅方法
微博搜索关键词订阅方法
豆瓣日记 RSS订阅方法
目录
相关文章推荐
黄建同学
·
CjZ分享的 AI ...
·
2 天前
爱可可-爱生活
·
本文提出了一种基于快速响应的LLM越狱防御新 ...
·
4 天前
爱可可-爱生活
·
今日推介(第1591期):用压缩注意力加速长 ...
·
5 天前
爱可可-爱生活
·
Pie ...
·
6 天前
量子位
·
多个中国团队斩获EMNLP'24最佳论文!U ...
·
6 天前
今天看啥
›
专栏
›
中国人工智能学会
学术分享丨精度与通用性不可兼得,北大华为理论证明低精度下scaling law难以实现
中国人工智能学会
·
公众号
·
AI
· 2024-11-19 17:58
文章预览
转自 机器之心 本工作来自北京大学智能学院王立威、贺笛老师课题组与华为诺亚方舟实验室李震国、孙嘉城研究员。作者包括智能学院博士生冯古豪、古云天、罗胜杰;信息科学技术学院本科生杨铠、艾心玥。 大模型量化通过将模型参数从较高的精度(如 bfoat16)压缩到低精度(如 int8 或 int4)来降低模型推理的开销,提高模型推理的速度。在大语言模型的实际部署中,量化技术能够显著提高大语言模型推理的效率。但近日,来自哈佛大学,MIT,CMU,斯坦福大学和 Databricks 的研究团队通过大量实验总结出了大语言模型关于精度的 Scaling Law,实验发现 模型的量化压缩会较大影响大语言模型的性能。 无独有偶,来自北大和华为的研究团队近期则从理论角度研究了量化对于大模型通用性的影响。具体而言,研究者关注了量化对于大模型数学推理能力的 ………………………………
原文地址:
访问原文地址
快照地址:
访问文章快照
总结与预览地址:
访问总结与预览
分享到微博
推荐文章
黄建同学
·
CjZ分享的 AI 工具使用经验↓#ai##程序员# ——我每天-20241119120400
2 天前
爱可可-爱生活
·
本文提出了一种基于快速响应的LLM越狱防御新范式,通过“越狱扩增-20241117064706
4 天前
爱可可-爱生活
·
今日推介(第1591期):用压缩注意力加速长上下文LLM推理、工-20241116063556
5 天前
爱可可-爱生活
·
Pie 框架通过性能透明的内存交换和自适应扩展算法,充分利用高带-20241116055038
6 天前
量子位
·
多个中国团队斩获EMNLP'24最佳论文!UCLA华人学者中三篇杰出论文,明年顶会落户苏州
6 天前
北京城建集团国际事业部
·
北京城建集团ENR最新排名出炉
2 月前
经济参考报
·
丰收节,来收获呀!
2 月前