文章预览
这篇文章探讨了长上下文大语言模型(LLMs)在列表排序任务中的应用,特别是全排序策略与滑动窗口策略的比较。文章指出,尽管滑动窗口策略在零样本设置中表现更好,但在监督微调设置中,经过适当微调的全排序模型表现更优。为了克服现有方法的局限性,作者提出了一种多遍滑动窗口方法和一种重要性感知的学习目标函数。实验结果表明,这些改进显著提高了模型的性能和效率。 LLM所有 细分方向 群+ ACL25/ICML25/NAACL25 投稿群-> LLM所有细分领域群、投稿群从这里进入! 论文: Sliding Windows Are Not the End: Exploring Full Ranking with Long-Context Large Language Models 链接: https://arxiv.org/pdf/2412.14574v1 出自 :「深度学习自然语言处理」 研究背景 研究问题:如何在长上下文大型语言模型(LLMs)中进行全文排名,以提高效率并保证有效性。现有的滑动窗口策略虽然有
………………………………