文章预览
最近的工作表明,减少卷积神经网络中的层数可以在保持网络性能的同时提高效率。现有的深度压缩方法移除了冗余的非线性激活函数,并将连续的卷积层合并为单一层。 然而,这些方法存在一个关键缺陷;合并层的核尺寸变大,显著削弱了由于减少网络深度而获得的延迟降低。作者展示,通过联合剪枝卷积层和激活函数可以解决这个问题。 为此,作者提出了 LayerMerge,一种新颖的深度压缩方法,它选择移除哪些激活层和卷积层,以实现期望的推理加速同时最小化性能损失。 由于相应的选择问题涉及指数级的搜索空间,作者构建了一个新颖的代理优化问题,并通过动态规划高效地解决它。 经验结果表明,作者的方法在多种网络架构上,无论是图像分类任务还是生成任务,都一致优于现有的深度压缩和层剪枝方法。 作者在https://github.com/snu-mllab/Laye
………………………………