专栏名称: 计算机视觉研究院
主要由来自于大学的研究生组成的团队,本平台从事机器学习与深度学习领域,主要在人脸检测与识别,多目标检测研究方向。本团队想通过计算机视觉战队平台打造属于自己的品牌,让更多相关领域的人了解本团队,结识更多相关领域的朋友,一起来学习,共同进步!
今天看啥  ›  专栏  ›  计算机视觉研究院

一文读懂模型的可解释性(附代码)

计算机视觉研究院  · 公众号  ·  · 2024-10-30 10:30
    

文章预览

大模型的可解释性非常重要 。随着模型越来越大,其 “黑盒子”特性会严重影响模型结果的准确性,增加对模型的优化难度,以及在医学、金融等领域带来很高的应用风险。 因此提高大模型的可解释性,不仅能优化我们的实验结果,其方法本身也是一个可发paper的创新点。 今天总结一下目前最全的大模型可解释性技术。 首先按照大模型的训练范式分类: 传统 fine-tuning 范式   和  基于 prompting 的范式 。 基于传统 fine-tuning 范式的模型解释,又可分为 局部解释 和 全局解释 。 基于 prompting 的范式, 分为 对 基础模型的解释, 和 对 助手模型的解释 。 其中每种解释还有细分内容。为了方便大家学习,我按照上面的分类, 整理了118篇可解释性的精选论文 ,有开源代码的也一并整理 。扫码免费领取。 扫码 免费获取全部论文+开源代码 来看一下具体的 ………………………………

原文地址:访问原文地址
快照地址: 访问文章快照
总结与预览地址:访问总结与预览