注:作者 wangs, 毕业于985高校,曾在中国科学院国家重点实验室开展科研工作。从学期间,发表了1篇SCI论文、1篇EI论文,并申请了若干项专利。 主要研究方向集中在大模型(LLM)和(RAG)等领域,在自然语言处理(NLP)领域深耕数载。 本博客是降低从业人员学习门槛,奉献自己价值,致力于开源贡献,为技术赋能。后续将会持续推进,敬情关注。 论文解读:LongAlign: A Recipe for Long Context Alignment of Large Language Models 摘要: 扩展大型语言模型以有效地处理长上下文需要对 相似长度的输入序列进行指令微调 。为了解决这个问题,我们提出了 LongAlign——一种用于长上下文对齐的指令数据、训练和评估的配方。首先,我们使用 Self-Instruct 构建了一个长指令跟踪数据集 。为了确保数据的多样性,它涵盖了来自各种长上下文源的广泛任务。其次,我们采用 pac
………………………………