定期分享机器学习领域原创文章,公众号内容涵盖了机器学习算法和python数据分析等文章,目前监督学习方法的文章应有尽有,非监督学习的原创文章一直在更新,欢迎机器学习爱好者和从业者的加入,互相学习,共同成长。
今天看啥  ›  专栏  ›  机器学习算法那些事

何恺明新作出炉!异构预训练Transformer颠覆本体视觉学习范式,AI性能暴涨超20%

机器学习算法那些事  · 公众号  ·  · 2024-10-10 14:26

文章预览

作者丨 新智元 来源丨新智元 编辑丨极市平台 极市导读   通用机器人模型,如何解决异构性难题?来自MIT、Meta FAIR团队全新提出异构预训练Transformer(HPT),不用从头训练,即可破解。 通用机器人模型,目前最大的障碍便是「异构性」。 也就是说,必须收集全方位——每个机器人、任务和环境的特定数据,而且学习后的策略还不能泛化到这些特定设置之外。 由此,AI大神何恺明带队的MIT、Meta FAIR团队,提出了异构预训练Transformer(HPT)模型。 即预训练一个大型、可共享的神经网络主干,就能学习与任务和机器人形态无关的共享表示。 简单讲,就是在你的策略模型中间放置一个可扩展的Transformer,不用从头开始训练! 论文地址: https://arxiv.org/pdf/2409.20537 研究人员将不同本体视觉输入对齐到统一的token序列,再处理这些token以控制不同任务的机器人 ………………………………

原文地址:访问原文地址
快照地址: 访问文章快照
总结与预览地址:访问总结与预览