注册
登录
专栏名称:
深度图学习与大模型LLM
关注图网络、图表示学习,最近顶会顶刊动态以及机器学习基本方法,包括无监督学习、半监督学习、弱监督学习、元学习等
我也要提交微信公众号
今天看啥
微信公众号rss订阅, 微信rss, 稳定的RSS源
微信公众号RSS订阅方法
B站投稿RSS订阅方法
雪球动态RSS订阅方法
微博RSS订阅方法
微博搜索关键词订阅方法
豆瓣日记 RSS订阅方法
目录
相关文章推荐
Kevin在纽约
·
你用什么油炒菜? ...
·
2 天前
Kevin在纽约
·
女士们先生们,美国的新国防部长来纽约了。. ...
·
4 天前
知产力
·
全文 | 2024年AIPPI杭州决议
·
5 天前
知产力
·
全文 | 2024年AIPPI杭州决议
·
5 天前
小纽美国法律咨询
·
绿卡最新福利:I-90申请绿卡换新自动延长3 ...
·
6 天前
今天看啥
›
专栏
›
深度图学习与大模型LLM
统一transformer与diffusion!Meta融合新方法剑指下一代多模态王者
深度图学习与大模型LLM
·
公众号
· · 2024-08-26 10:03
文章预览
机器之心报道 编辑:陈陈 本文转自机器之心,原文链接https://mp.weixin.qq.com/s/D0sadIZkILx8VvWcsIEYFQ 本文引入了 Transfusion,这是一种可以在离散和连续数据上训练多模态模型的方法。 一般来说,多模态生成模型需要能够感知、处理和生成离散元素(如文本或代码)和连续元素(如图像、音频和视频数据)。 在离散模态领域,以预测下一个词为目标的语言模型占据主导地位,而在生成连续模态方面,扩散模型及其泛化形式则是当前最先进技术。 研究者一直试图将语言模型与扩散模型结合,一种方法是直接扩展语言模型,使其能够利用扩散模型作为一个工具,或者将一个预训练的扩散模型嫁接到语言模型上。另一种替代方案是对连续模态进行量化处理,然后在离散的 token 上训练一个标准的语言模型,这种方法虽然简化了模型架构,但也会造成信息的丢失 ………………………………
原文地址:
访问原文地址
快照地址:
访问文章快照
总结与预览地址:
访问总结与预览
分享到微博
推荐文章
Kevin在纽约
·
你用什么油炒菜? 有种可以专门煎炒的橄榄油,做出来的中餐不错,口-20241117095345
2 天前
Kevin在纽约
·
女士们先生们,美国的新国防部长来纽约了。. -20241115135615
4 天前
知产力
·
全文 | 2024年AIPPI杭州决议
5 天前
知产力
·
全文 | 2024年AIPPI杭州决议
5 天前
小纽美国法律咨询
·
绿卡最新福利:I-90申请绿卡换新自动延长3年!如何正确使用I-90快速搞定10年绿卡换新、丢失补办?
6 天前
蔻享学术
·
【期刊】NaTiOx修饰层提升高镍钠电正极循环性能 | 武汉理工大学尤雅教授Carbon Energy
3 周前
投行小兵
·
【中大力德】没那么简单!5亿元的可转债为啥就黄了,项目的问题还是公司的问题?
1 周前