文章预览
关注公众号,发现CV技术之美 本文转自机器之心。 经历了提前两天的「意外泄露」之后 , Llama 3.1 终于在昨夜由官方正式发布了。 Llama 3.1 将上下文长度扩展到了 128K,拥有 8B、70B 和 405B 三个版本,再次以一己之力抬高了大模型赛道的竞争标准。 对 AI 社区来说,Llama 3.1 405B 最重要的意义是刷新了开源基础模型的能力上限,Meta 官方称,在一系列任务中,其性能可与最好的闭源模型相媲美。 下表展示了当前 Llama 3 系列模型在关键基准测试上的性能。可以看出,405B 模型的性能与 GPT-4o 十分接近。 与此同时,Meta 公布了《The Llama 3 Herd of Models》论文,揭示了 Llama 3 系列模型迄今为止的研究细节。 论文地址: https://ai.meta.com/research/publications/the-llama-3-herd-of-models/ 接下来,让我们看一下论文内容。 Llama3 论文亮点 1、在使用 8K 上下文长度进行预训练后,Llama
………………………………