专栏名称: NLP PaperWeekly
论文学习,主要关注nlp,对话系统,大模型,多模态等领域的论文
今天看啥  ›  专栏  ›  NLP PaperWeekly

ACL2024 |解释引导的大语言模型主动蒸馏:一种优化知识转移的创新框架 "ELAD"

NLP PaperWeekly  · 公众号  ·  · 2024-08-10 00:05

文章预览

大家好,我是HxShine 今天分享一篇ACL2024关于 LLM蒸馏 的文章,来自Emory University,题为“ Explanation-Guided Large Language Models Active Distillation ”(解释引导的大型语言模型主动蒸馏)。在大型语言模型(LLMs)的应用中,由于其内存效率低、计算需求高以及API推理成本高,限制了其广泛部署。 现有的知识蒸馏方法虽然能将LLMs的能力转移到较小模型上,但无法确保知识充分转移,可能导致高成本或蒸馏不完全。 本文提出了一个简单却高效的框架,称之为ELAD(Explanation-Guided LLMs Active Distillation), 其通过主动学习策略来优化注释成本与模型性能之间的平衡。 简单来说,ELAD采用了三个步骤来实现这一目标:1. 解释引导的样本选择 :通过利用解释步骤中的不确定性,识别对模型推理具有挑战性的样本。2. 定制化的LLM注释解释修正 :教师模型检测并纠正学生模 ………………………………

原文地址:访问原文地址
快照地址: 访问文章快照
总结与预览地址:访问总结与预览