文章预览
转自 学术头条 想象一下, 如果人工智能(AI)模型能像人脑一样,规模小,耗能少,但具备同样复杂功能 ,那现阶段 AI 模型训练的耗能大、难理解的瓶颈是不是就能解决了? 中国科学院自动化研究所李国齐、徐波研究员团队联合清华大学、北京大学等团队便在这一方面取得了突破—— 他们借鉴大脑神经元复杂动力学特性,提出了 “基于内生复杂性”的类脑神经元模型构建方法 , 而非基于 Scaling Law 去构建更大、更深和更宽的神经网络。 这种方法不仅改善了传统模型通过向外拓展规模带来的计算资源消耗问题,还保持了性能,内存使用量减少了 4 倍,处理速度提高了 1 倍 。 研究论文以“ Network model with internal complexity bridges artificial intelligence and neuroscience ”为题,发表在权威期刊 Nature Computational Science 上。共同通讯作者为中国科学院自动化所
………………………………