文章预览
全球首个去中心化训练的10B参数模型诞生了! Prime Intellect团队宣布,他们完成了一项具有里程碑意义的工作: 跨越美国、欧洲和亚洲的去中心化训练网络 ,成功训练出了一个 10B参数的大模型 。这标志着AI训练领域迈出了革命性的一步。 从训练面板可以看到,这个名为INTELLECT-1的项目已经完成了 1万亿(1T)tokens的训练 。 损失和困惑度曲线都呈现出理想的下降趋势,每秒生成的token 数也保持稳定,这表明训练过程非常成功。 这个项目的成功离不开众多合作伙伴的鼎力支持 。 包括Hugging Face、SemiAnalysis、Arcee.ai、Hyperbolic Labs、Olas、Akash、Schelling AI等在内的多家机构都为这次训练贡献了宝贵的算力资源。这种前所未有的合作模式,展示了AI领域的新型协作方式。 从项目的排行榜可以看到,来自全球各地的贡献者们提供了惊人的计算时间。 最高的贡献者
………………………………