文章预览
来源:ScienceAI 本文 约3200字 ,建议阅读 9 分钟 本文提出了上下文分子微调,作为一个新的范式,来将大语言模型运用到分子。 去年,香港理工大学研究团队开发了一个基于检索的提示范式MolReGPT,利用大型语言模型探索分子发现,在分子和分子文本描述之间进行翻译。 近日,香港理工大学、上海交通大学和上海人工智能实验室联合发表了题为《Large Language Models are In-Context Molecule Learners》的文章,也是MolReGPT[1]的续作。 论文链接:https://arxiv.org/abs/2403.04197 模型链接:https://huggingface.co/phenixace/ 介绍 近来,大语言模型在生物化学领域展现出了优异的性能,尤其是分子-描述翻译任务[1],这减小了自然语言描述与分子空间的差异。 但是,之前的方法要么是需要进行大量的领域预训练,要么是在分子与描述的对齐上存在过于粗糙的问题[2],要么是对大语言
………………………………