专栏名称: 学术头条
致力于科学传播和学术分享,关注计算机科学、认知科学、人工智能科学、神经科学、脑科学等学科领域。我们从跨学科的角度,围绕“认知智能”向科学界和大众介绍相关领域的前沿话题和深度解读。
今天看啥  ›  专栏  ›  学术头条

放弃Scaling Law!中科院、清北提出内生复杂性类脑网络:让AI像人脑一样“小而强”

学术头条  · 公众号  ·  · 2024-08-27 08:58
    

文章预览

想象一下, 如果人工智能(AI)模型能像人脑一样,规模小,耗能少,但具备同样复杂功能 ,那现阶段 AI 模型训练的耗能大、难理解的瓶颈是不是就能解决了? 中国科学院自动化研究所李国齐、徐波研究员团队联合清华大学、北京大学等团队便在这一方面取得了突破—— 他们借鉴大脑神经元复杂动力学特性,提出了 “基于内生复杂性”的类脑神经元模型构建方法 , 而非基于 Scaling Law 去构建更大、更深和更宽的神经网络。 这种方法不仅改善了传统模型通过向外拓展规模带来的计算资源消耗问题,还保持了性能,内存使用量减少了 4 倍,处理速度提高了 1 倍 。 研究论文以“ Network model with internal complexity bridges artificial intelligence and neuroscience ”为题,发表在权威期刊 Nature Computational Science 上。 共同通讯作者为 中国科学院自动化所李国齐研究员 ………………………………

原文地址:访问原文地址
快照地址: 访问文章快照
总结与预览地址:访问总结与预览