专栏名称: AI前线
InfoQ十年沉淀,为千万技术人打造的专属AI公众号。追踪技术新趋势,跟踪头部科技企业发展和传统产业技术升级落地案例。囊括网站和近万人的机器学习知识交流社群。
今天看啥  ›  专栏  ›  AI前线

100B 的「跨级」跃升!元象发布最大 MoE 开源大模型,「高性能全家桶」系列全部免费

AI前线  · 公众号  · AI  · 2024-09-14 12:45

文章预览

作者 | 华卫 9 月 13 日,元象 XVERSE 发布中国最大 MoE 开源模型:XVERSE-MoE-A36B。该模型总参数 255B,激活参数 36B,能 达到 100B 模型的性能「跨级」跃升 ,同时训练时间减少 30%,推理性能提升 100%,使每 token 成本大幅下降。 并且,元象「高性能全家桶」系列全部开源, 无条件免费商用 ,海量中小企业、研究者和开发者能按需选择。 MoE(Mixture of Experts)是业界前沿的混合专家模型架构 ,将多个细分领域的专家模型组合成一个超级模型,打破了传统扩展定律(Scaling Law)的局限,可在 扩大模型规模时,不显著增加训练和推理的计算成本,并保持模型性能最大化 。出于这个原因,行业前沿模型包括谷歌 Gemini-1.5、OpenAI 的 GPT-4 、马斯克旗下 xAI 公司的 Grok 等大模型都使用了 MoE。 免费下载大模型 Hugging Face: https://huggingface.co/xverse/XVERSE-MoE-A36B 魔搭: https: ………………………………

原文地址:访问原文地址
快照地址: 访问文章快照
总结与预览地址:访问总结与预览