专栏名称: 数据派THU
本订阅号是“THU数据派”的姊妹账号,致力于传播大数据价值、培养数据思维。
今天看啥  ›  专栏  ›  数据派THU

为百亿参数LLM化学应用提供新范式,香港理工大学提出上下文分子微调

数据派THU  · 公众号  · 大数据  · 2024-06-11 17:00
    

文章预览

来源:ScienceAI 本文 约3200字 ,建议阅读 9 分钟 本文提出了上下文分子微调,作为一个新的范式,来将大语言模型运用到分子。 去年,香港理工大学研究团队开发了一个基于检索的提示范式MolReGPT,利用大型语言模型探索分子发现,在分子和分子文本描述之间进行翻译。 近日,香港理工大学、上海交通大学和上海人工智能实验室联合发表了题为《Large Language Models are In-Context Molecule Learners》的文章,也是MolReGPT[1]的续作。 论文链接:https://arxiv.org/abs/2403.04197 模型链接:https://huggingface.co/phenixace/ 介绍 近来,大语言模型在生物化学领域展现出了优异的性能,尤其是分子-描述翻译任务[1],这减小了自然语言描述与分子空间的差异。 但是,之前的方法要么是需要进行大量的领域预训练,要么是在分子与描述的对齐上存在过于粗糙的问题[2],要么是对大语言 ………………………………

原文地址:访问原文地址
快照地址: 访问文章快照
总结与预览地址:访问总结与预览