文章预览
目录: 质量>数量 LIMA: Less Is More for Alignment 什么是SFT数据质量 指令数据复杂度 WizardLM: Empowering Large Language Models to Follow Complex Instructions Tree-Instruct: A Preliminary Study of the Intrinsic Relationship between Complexity and Alignment 指令数据多样性 数据筛选方法-Influence Formulation系列 Estimating Training Data Influence by Tracing Gradient Descent LESS: Selecting Influential Data for Targeted Instruction Tuning 数据筛选-实用主义方法 基于多样性的方法-InsTAG 基于样本复杂度的方法-IDF 基于ICL的方法 质量>数量 LIMA: Less Is More for Alignment 主要观点 :大模型的所有知识都是通过预训练阶段获得的,只需要很少的指令微调数据就可以获得高质量的输出。凸出了预训练的重要性,并倡导在做微调阶段更加重视数据多样性,而不是简单的扩大数据规模。 数据生成过程 基于论文 的主要观点,文中构造了1000个问答对
………………………………