文章预览
自监督学习在分子表征学习中起着重要的作用,因为标记的分子数据通常在许多任务中受到限制,例如化学性质预测和虚拟筛选。然而,现有的分子预训练方法大多集中在分子数据的一种模态上,并且没有充分挖掘两种重要模态(SMILES和图)的互补信息。 近年来,越来越多的研究表明,多模态预训练包含更多的信息,往往能达到更好的效果,因此具有更大的潜力。然而,大多数现有的多模态融合方法往往依赖于对比学习,但它们忽略了不同模式之间的细粒度交互。尽管UniMAP等多模态融合框架采用基于掩码重建的生成式预训练,但其只进行简单的掩码重建,没有具体设计掩码策略,因此仍然不能充分利用互补信息交互。 2024年5月27日,复旦大学王满宁教授团队在Briefings in Bioinformatics上发表文章 Complementary multi-modality molecular self-supervised learning via non-overlap
………………………………