专栏名称: 数据派THU
本订阅号是“THU数据派”的姊妹账号,致力于传播大数据价值、培养数据思维。
今天看啥  ›  专栏  ›  数据派THU

ECCV 2024|解锁多模态自监督学习!深度解耦常见与独特表示的创新突破

数据派THU  · 公众号  · 大数据  · 2024-11-06 17:00
    

文章预览

来源:多模态机器学习与大模型 本文 约1800字 ,建议阅读 10分钟 本文介绍了三种常见的多模态场景(雷达光学、RGB 仰角和 RGB 深度)中评估 DeCUR,并展示其持续改进,无论架构如何,以及多模态和模态缺失设置。 Decoupling Common and Unique Representations for Multimodal Self-supervised Learning 作者: Yi Wang , Conrad M Albrecht , Nassim Ait Ali Braham, Chenying Liu , Zhitong Xiong , and Xiao Xiang Zhu 作者单位: 德国慕尼黑工业大学,德国航空航天中心遥感技术研究所,慕尼黑机器学习中心 论文链接: https://arxiv.org/pdf/2309.05300 代码链接: https://github.com/zhu-xlab/DeCUR 简介 大多数现有多模态自监督方法仅学习跨模态的通用表示,而忽略模态内训练和模态独特的表示。文中提出了一种简单而有效的多模态自监督学习方法,即解耦通用和独特表示(DeCUR)。通过减少多模态冗余来区分模态间和模内嵌 ………………………………

原文地址:访问原文地址
快照地址: 访问文章快照
总结与预览地址:访问总结与预览