专栏名称: PaperWeekly
PaperWeekly是一个推荐、解读、讨论和报道人工智能前沿论文成果的学术平台,致力于让国内外优秀科研工作得到更为广泛的传播和认可。社区:http://paperweek.ly | 微博:@PaperWeekly
今天看啥  ›  专栏  ›  PaperWeekly

神经网络可能不再需要激活函数?Layer Normalization也具有非线性表达

PaperWeekly  · 公众号  · 科研  · 2024-07-04 13:15
    

文章预览

©作者 |  倪云昊、郭宇芯等 单位 |  北京航空航天大学 本文作者均来自北京航空航天大学人工智能学院和复杂关键软件环境全国重点实验室黄雷副教授团队。一作倪云昊为研一学生,二作郭宇芯为大三学生,三作贾俊龙为研二学生,通讯作者为黄雷副教授(主页:https://huangleibuaa.github.io/) 神经网络通常由三部分组成:线性层、非线性层(激活函数)和标准化层。线性层是网络参数的主要存在位置,非线性层提升神经网络的表达能力,而标准化层(Normalization)主要用于稳定和加速神经网络训练,很少有工作研究它们的表达能力,例如,以 Batch Normalization 为例,它在预测阶段可以认为是线性变换,从表达上并未引入非线性。因此研究人员普遍认为 Normalization 并不能够提升模型的表达能力。 然而,最近由北京航空航天大学人工智能学院黄雷老师团队 ………………………………

原文地址:访问原文地址
快照地址: 访问文章快照
总结与预览地址:访问总结与预览