注册
登录
专栏名称:
Hugging Face
The AI community building the future.
我也要提交微信公众号
今天看啥
微信公众号rss订阅, 微信rss, 稳定的RSS源
微信公众号RSS订阅方法
B站投稿RSS订阅方法
雪球动态RSS订阅方法
微博RSS订阅方法
微博搜索关键词订阅方法
豆瓣日记 RSS订阅方法
目录
相关文章推荐
国家知识产权局
·
乘着高铁看冰雪(新春走基层·假日市场看信心)
·
3 天前
今天看啥
›
专栏
›
Hugging Face
基于开放模型的推理时计算缩放
Hugging Face
·
公众号
· · 2024-12-31 10:30
文章预览
过去几年,大语言模型 (LLM) 的进程主要由训练时计算缩放主导。尽管这种范式已被证明非常有效,但预训练更大模型所需的资源变得异常昂贵,数十亿美元的集群已经出现。这一趋势引发了人们对其互补方法的浓厚兴趣, 即推理时计算缩放。推理时计算缩放无需日趋庞大的预训练预算,而是采用动态推理策略,让模型能够对难题进行“更长时间的思考”。最著名的案例是 OpenAI 的 o1 模型,随着推理时计算量的增加,该模型在数学难题上获得了持续的改进: 尽管我们无从得知 o1 是如何训练的,但 DeepMind 最新的研究表明,使用迭代式自完善或让奖励模型在解空间上搜索等策略,可以较好地实现优化推理时计算缩放。通过根据提示自适应地分配推理时计算,较小的模型可以与更大、更耗资源的模型相媲美,有时甚至优于它们。当内存受限或可用硬件不 ………………………………
原文地址:
访问原文地址
快照地址:
访问文章快照
总结与预览地址:
访问总结与预览
分享到微博
推荐文章
国家知识产权局
·
乘着高铁看冰雪(新春走基层·假日市场看信心)
3 天前
大峰传媒
·
林良忠电影摄影师大师班 暑期班定档!
8 月前
iSynBio爱星博
·
会议通知|mLife Research Conference 2024报名通道正式开启!
6 月前
氧叔本叔
·
41岁终于愿意演妈,反而被夸像少女?古装白月光杀回来了!
3 月前
无锡博报生活
·
新春潮涌“经”喜无限!经开消费狂欢秘籍大揭秘
1 周前