今天看啥  ›  专栏  ›  AI生成未来

最轻最快 ViT ,让你知道 Transformer 可以轻量化到什么程度 ?

AI生成未来  · 公众号  ·  · 2024-07-30 05:30

文章预览

点击下方 卡片 ,关注“ AI生成未来 ” 请加小助理 加入AIGC技术交流群 备注公司/学校+昵称+研究方向, 广告勿扰 在本文中,作者探讨了一种策略,该策略使用专家混合(Mixture-of-Experts, MoE)来简化而非增强视觉 Transformer 。MoE层中的每个专家都是一个SwiGLU前馈网络,不采用复杂的注意力或卷积机制。 逐深度缩放被应用于逐步减少隐藏层的大小,并且分阶段增加专家的数量。使用了分组 Query 注意力。作者研究了在小数据集上进行预训练和不进行预训练的所提方法,并探讨了在这种规模下迁移学习是否有效。作者发现,即使参数量仅有0.67M,该架构也具有竞争力。 1 Introduction 在计算机视觉的实际应用中,例如边缘智能,小型且性能高效的模型仍然被优先考虑以克服计算挑战[1]。视觉 Transformer (ViTs)[2]取得了显著成果,但当模型大小和数据集较小时, ………………………………

原文地址:访问原文地址
快照地址: 访问文章快照
总结与预览地址:访问总结与预览