注册
登录
专栏名称:
机器之心
专业的人工智能媒体和产业服务平台
我也要提交微信公众号
今天看啥
微信公众号rss订阅, 微信rss, 稳定的RSS源
微信公众号RSS订阅方法
B站投稿RSS订阅方法
雪球动态RSS订阅方法
微博RSS订阅方法
微博搜索关键词订阅方法
豆瓣日记 RSS订阅方法
目录
相关文章推荐
宝玉xp
·
//@梧桐清声:第一步可以直接问,我要改英文 ...
·
3 天前
爱可可-爱生活
·
【Documind:一个开源平台,利用人工智 ...
·
4 天前
新智元
·
逼真到离谱!1000个人类「克隆」进西部世界 ...
·
4 天前
机器之心
·
Karpathy后悔了:2015年就看到了语 ...
·
5 天前
爱可可-爱生活
·
本文提出一种新的非对抗性逆强化学习方法SFM ...
·
5 天前
今天看啥
›
专栏
›
机器之心
补齐Transformer规划短板又不放弃快速思考,田渊栋团队的Dualformer融合System 1和2双重优势
机器之心
·
公众号
·
AI
· 2024-10-16 12:32
文章预览
机器之心报道 编辑:Panda、泽南 一个 token 就能控制模型快些解答或慢点思考。 OpenAI ο1 模型的发布掀起了人们对 AI 推理过程的关注,甚至让现在的 AI 行业开始放弃卷越来越大的模型,而是开始针对推理过程进行优化了。今天我们介绍的这项来自 Meta FAIR 田渊栋团队的研究也是如此,其从人类认知理论中获得了灵感,提出了一种新型 Transformer 架构:Dualformer。 根据人类认知理论,人类的思考受到两个系统控制: System 1:系统 1,速度快,基于直觉。 System 2:系统 2,速度更慢,更加深思熟虑。 近期有研究表明,如果将系统 2 过程整合进 Transformer 和大型语言模型中,就能显著提升它们的推理能力。尽管如此,如果模型只是模仿系统 2 式的思考过程,那就需要远远更高的计算成本才能完成,同时响应速度也会大幅减慢。 在研究这一难题时,田渊栋团队 ………………………………
原文地址:
访问原文地址
快照地址:
访问文章快照
总结与预览地址:
访问总结与预览
分享到微博
推荐文章
宝玉xp
·
//@梧桐清声:第一步可以直接问,我要改英文作业,一般情况下应该-20241120100317
3 天前
爱可可-爱生活
·
【Documind:一个开源平台,利用人工智能从文档中提取结构化-20241119140909
4 天前
新智元
·
逼真到离谱!1000个人类「克隆」进西部世界,AI相似度85%细节太炸裂
4 天前
机器之心
·
Karpathy后悔了:2015年就看到了语言模型的潜力,却搞了多年强化学习
5 天前
爱可可-爱生活
·
本文提出一种新的非对抗性逆强化学习方法SFM,通过直接策略优化匹-20241118054423
5 天前
解螺旋
·
重磅!IF=50.5分!超级顶刊Nature教你论文怎么用AI!AI干货教程进来0元免费学!!!!
4 月前