文章预览
点击下方 卡片 ,关注“ 小白玩转Python ”公众号 可解释性是人工智能模型的关键话题之一。最近的复杂人工智能倾向于成为一个黑盒算法,使得人类难以理解人工智能为何提供这些结果。最近,我读了一篇论文,“通过增强开放词汇任务的可解释性进行CLIP手术”[1],主要关于CLIP的可解释技术。尽管这篇论文展示了CLIP的极佳可解释性,但很少有博客对此进行解释。因此,我将在这篇博客中介绍CLIP_Surgery的架构及其应用。 目录 快速回顾CLIP CLIP手术算法的解释 应用:检查现实世界数据的能力以及为“分割任何事物”提供点 1. 快速回顾CLIP CLIP是由OpenAI[2]开发的改变游戏规则的人工智能之一。得益于其独特的架构,它能够进行零样本图像分类。架构如下所示: CLIP具有图像和文本编码器,用于创建图像和文本嵌入。训练数据是图像和文本对,例如带有
………………………………