专栏名称: 大数据文摘
普及数据思维,传播数据文化
目录
相关文章推荐
数据派THU  ·  使用 Python TorchRL ... ·  6 天前  
今天看啥  ›  专栏  ›  大数据文摘

放弃Scaling Law!中科院、清北提出内生复杂性类脑网络:让AI像人脑一样“小而强”

大数据文摘  · 公众号  · 大数据  · 2024-08-28 18:30

文章预览

大数据文摘受权转载自学术头条 想象一下,如果人工智能(AI)模型能像人脑一样,规模小,耗能少,但具备同样复杂功能,那现阶段 AI 模型训练的耗能大、难理解的瓶颈是不是就能解决了? 中国科学院自动化研究所李国齐、徐波研究员团队联合清华大学、北京大学等团队便在这一方面取得了突破—— 他们借鉴大脑神经元复杂动力学特性,提出了“基于内生复杂性”的类脑神经元模型构建方法,而非基于 Scaling Law 去构建更大、更深和更宽的神经网络。这种方法不仅改善了传统模型通过向外拓展规模带来的计算资源消耗问题,还保持了性能,内存使用量减少了 4 倍,处理速度提高了 1 倍。 研究论文以“Network model with internal complexity bridges artificial intelligence and neuroscience”为题,发表在权威期刊 Nature Computational Science 上。共同通讯作者为中国科学院 ………………………………

原文地址:访问原文地址
快照地址: 访问文章快照
总结与预览地址:访问总结与预览