专栏名称: AINLP
关注AI、NLP相关技术,关注算法研发职位和课程;回复"文章"获取历史信息;双语聊天机器人"无名";中英翻译请输入:翻译 翻译内容;自动对联,请输入:上联 上联内容;调戏夸夸聊天机器人,请求夸、求赞;查询相似词,请输入: 相似词 词条
今天看啥  ›  专栏  ›  AINLP

将 MOE 塞到 LoRA: 一篇文章的诞生

AINLP  · 公众号  ·  · 2024-09-07 21:53

文章预览

作者丨Taki@知乎 来源丨https://zhuanlan.zhihu.com/p/704761512 编辑丨极市平台 导读   在传统的 LoRA 中加入一个 Mixer 矩阵,进行混个不同子空间的信息。   Nothing will work unless you do. --Maya Angelou 本文主要介绍一篇论文是怎么诞生。 文章的基本信息是: 标题: Mixture-of-Subspaces in Low-Rank Adaptation 链接: https://arxiv.org/pdf/2406.11909 代码: https://github.com/wutaiqiang/MoSLoRA 简介:在传统的 LoRA 中加入一个 Mixer 矩阵,进行混个不同子空间的信息。设计非常简单: 最初的想法 说来也是巧合,之前有很多的文章尝试将 LoRA 和 MoE 结合起来,他们基本上都是把 LoRA 当做 MoE 的 Expert,然后塞到 MoE 结构之中,之前也介绍过一些,如文章 https://zhuanlan.zhihu.com/p/676782109、 https://zhuanlan.zhihu.com/p/676557458、 https://zhuanlan.zhihu.com/p/676268097、https://zhuanlan.zhihu.com/p/675186369 。这些文章无疑都是将 ………………………………

原文地址:访问原文地址
快照地址: 访问文章快照
总结与预览地址:访问总结与预览