文章预览
大家好,我是HxShine 今天分享一篇ACL2024关于 LLM蒸馏 的文章,来自Emory University,题为“ Explanation-Guided Large Language Models Active Distillation ”(解释引导的大型语言模型主动蒸馏)。在大型语言模型(LLMs)的应用中,由于其内存效率低、计算需求高以及API推理成本高,限制了其广泛部署。 现有的知识蒸馏方法虽然能将LLMs的能力转移到较小模型上,但无法确保知识充分转移,可能导致高成本或蒸馏不完全。 本文提出了一个简单却高效的框架,称之为ELAD(Explanation-Guided LLMs Active Distillation), 其通过主动学习策略来优化注释成本与模型性能之间的平衡。 简单来说,ELAD采用了三个步骤来实现这一目标:1. 解释引导的样本选择 :通过利用解释步骤中的不确定性,识别对模型推理具有挑战性的样本。2. 定制化的LLM注释解释修正 :教师模型检测并纠正学生模
………………………………