一个从大三就接触NLP的小小NLPer,本公众号每天记录自己的一点一滴,每篇文章最后也有托福单词等新知识,学技术同时,也一点一滴积累额外的知识。期待与你在知识的殿堂与你相遇!
今天看啥  ›  专栏  ›  深度学习自然语言处理

大模型+小模型协同处理跨文档理解任务,成本更低,性能更高

深度学习自然语言处理  · 公众号  ·  · 2024-07-20 15:33

文章预览

“ Synergetic Event Understanding: A Collaborative Approach to Cross-Document Event Coreference Resolution with Large Language Models ” 论文地址 :https://arxiv.org/pdf/2406.02148 摘要 跨文档事件核指代解析(CDECR)涉及将跨多个文档引用的事件提及聚类到同一实际事件。本文提出了一种协作方法,利用大型语言模型(LLM)和任务特定的小语言模型(SLM)的能力。LLM通过提示准确全面地总结事件,然后SLM在微调过程中根据这些见解优化其对事件表示的学习。实验结果表明,该方法在各种数据集上均取得了最先进的性能,突显了其在不同场景中的有效性。 简介 事件指代消解是信息提取中的一个重要任务,尤其在跨文档事件指代消解方面存在挑战。现有工作尝试通过微调小语言模型来解决跨文档事件指代消解,但仍然面临着复杂多样的语境和学习伪特征的问题。 本文介绍了一种协作式 ………………………………

原文地址:访问原文地址
快照地址: 访问文章快照
总结与预览地址:访问总结与预览