专栏名称: 架构师带你玩转AI
分享人工智能,让所有人玩转AI
今天看啥  ›  专栏  ›  架构师带你玩转AI

无法解释LLM的智能涌现,可以从神经元的基本原理入手

架构师带你玩转AI  · 公众号  ·  · 2024-08-26 23:16
    

文章预览

神经网络的重要参数 大模型如Llama 3.1 8B、70B、405B(即80亿、700亿、4050亿参数)中的这些几十亿、几百亿、几千亿的参数 主要是指模型中所有可训练的权重和偏置的总和 ,这些参数分布在模型的各个层、节点和组件中,用于学习数据的复杂表示并生成预测结果。 “大力出奇迹”,即“Scalling Law”: 在保持模型架构和训练策略不变的情况下,通过简单地增加模型的参数数量、训练数据量或计算资源,可以在一定程度上提升模型的性能。 这种趋势在多个大型语言模型的实验中都得到了验证,表明在当前的技术水平下,参数规模的增长仍然是推动模型性能提升的重要因素。 能够大力出奇迹,可能来源于大模型是由无数简单的神经元构成,就像蜂群由无数工蜂组成。越是简单的个体,不断叠加个体的数量,一定会量变到质变,产生智能涌现。 这一切的 ………………………………

原文地址:访问原文地址
快照地址: 访问文章快照
总结与预览地址:访问总结与预览