专栏名称: 人工智能前沿讲习
领先的人工智能知识平台
目录
相关文章推荐
BioArt  ·  ​Cell | ... ·  昨天  
生物探索  ·  Cell | ... ·  4 天前  
BioArt  ·  Cell ... ·  6 天前  
今天看啥  ›  专栏  ›  人工智能前沿讲习

【他山之石】YOPO (You Only Prune Once):给LLaVA做剪枝,大幅缩减多模态大模型计算量至12%!

人工智能前沿讲习  · 公众号  ·  · 2024-12-10 18:00
    

文章预览

“ 问 渠 那 得 清 如 许 , 为 有 源 头 活 水 来 ” , 通 过 前 沿 领 域 知 识 的 学 习 , 从 其 他 研 究 领 域 得 到 启 发 , 对 研 究 问 题 的 本 质 有 更 清 晰 的 认 识 和 理 解 , 是 自 我 提 高 的 不 竭 源 泉 。 为 此 , 我 们 特 别 精 选 论 文 阅 读 笔 记 , 开 辟 “ 源 头 活 水 ” 专 栏 , 帮 助 你 广 泛 而 深 入 的 阅 读 科 研 文 献 , 敬 请 关 注! TL;DR 本文提出从参数和计算模式层面对多模态大模型做剪枝,以 LLaVA 为实验对象将计算量压缩至 12% 并获得与原始模型同等的性能,并进一步在 Qwen2-VL 和 InternVL2.0 上验证了此种剪枝策略的普适性。 论文标题: Treat Visual Tokens as Text? But Your MLLM Only Needs Fewer Efforts to See 论文地址: https://arxiv.org/abs/2410.06169 代码地址: https://github.com/ZhangAIPI/YOPO_MLLM_Pruning 01 摘要 随着大语言模型的成功,多模态大 ………………………………

原文地址:访问原文地址
快照地址: 访问文章快照
总结与预览地址:访问总结与预览