今天看啥  ›  专栏  ›  数字生命卡兹克

腾讯悄悄开源了两款大模型,他们快成中国的Meta了。

数字生命卡兹克  · 公众号  · AI 科技自媒体  · 2024-11-05 16:31

主要观点总结

本文介绍了腾讯混元发布的开源模型混元Large、AI 3D大模型Hunyuan3D-1.0以及长文本评测数据集企鹅卷轴的相关信息。

关键观点总结

关键观点1: 混元Large模型

腾讯混元发布了开源的MoE模型混元Large,具有参数最大、效果最好的特点。该模型总参数量389B,激活参数量52B,上下文长度高达256K。该模型通过混合专家模型(MoE)机制,提高了推理效率和准确性。

关键观点2: Hunyuan3D-1.0模型

腾讯混元还开源了AI 3D大模型Hunyuan3D-1.0,支持文生3D和图生3D。该模型分为标准版和轻量版,轻量版能够在短时间内生成高质量的3D模型。虽然与最好的闭源3D大模型相比还有一定差距,但在开源领域中,Hunyuan3D-1.0具有优势。

关键观点3: 企鹅卷轴数据集

腾讯混元即将开源一个长文本评测数据集,名为企鹅卷轴。这个数据集用于评测长文本大模型的性能。此前长文本评测领域缺乏明确的评测数据集,企鹅卷轴的开源将为该领域带来一种全新的评测方法。


文章预览

今天,人在腾讯混元发布会的现场。 我就眼看着腾讯他们风尘仆仆的从深圳奔赴北京,开了一场非常私密的闭门发布会。 而整场的核心,就是一个词: 开源。 而且不藏着掖着,直接开源了他们最好的模型,分别是 MoE模型“混元Large”、混元3D大模型“ Hunyuan3D-1.0”。 现在,这些模型已经全面上线 huggingface了,可以直接下载。 还有一个即将开源的长文本评测数据集“企鹅卷轴”。 我一个一个说。 一. 混元Large 可能是如今,开源出来的,参数最大、效果最好的MoE模型。 总参数量389B,激活参数量52B,上下文长度高达256K。实用性拉满。 要知道,这是MoE,训练起来本身就很麻烦,变量无数,混元能做到这么大,还能开源出来,这事本身就挺值得鼓励的。 在数据集的跑分上,效果也很好。 在几个维度上,基本全面领先。 可能 混元Large有些东西你看着有 ………………………………

原文地址:访问原文地址
快照地址: 访问文章快照
总结与预览地址:访问总结与预览