专栏名称: PaperWeekly
PaperWeekly是一个推荐、解读、讨论和报道人工智能前沿论文成果的学术平台,致力于让国内外优秀科研工作得到更为广泛的传播和认可。社区:http://paperweek.ly | 微博:@PaperWeekly
今天看啥  ›  专栏  ›  PaperWeekly

NeurIPS 2024 | 何恺明团队提出异构预训练Transformer,性能暴涨20%

PaperWeekly  · 公众号  · 科研  · 2024-10-07 23:57

文章预览

©作者 |  桃子 乔杨 来源 |  新智元 通用机器人模型,目前最大的障碍便是「异构性」。 也就是说,必须收集全方位——每个机器人、任务和环境的特定数据,而且学习后的策略还不能泛化到这些特定设置之外。 由此,AI大神何恺明带队的MIT、Meta FAIR团队,提出了异构预训练Transformer(HPT)模型。 即预训练一个大型、可共享的神经网络主干,就能学习与任务和机器人形态无关的共享表示。 简单讲,就是在你的策略模型中间放置一个可扩展的Transformer,不用从头开始训练! 论文标题: Scaling Proprioceptive-Visual Learning with Heterogeneous Pre-trained Transformers 论文链接: https://arxiv.org/pdf/2409.20537 研究人员将不同本体视觉输入对齐到统一的token序列,再处理这些token以控制不同任务的机器人。 最后发现,HPT优于多个基准模型,并在模拟器基准和真实世界环境中, ………………………………

原文地址:访问原文地址
快照地址: 访问文章快照
总结与预览地址:访问总结与预览