专栏名称: 机器学习研究会
机器学习研究会是北京大学大数据与机器学习创新中心旗下的学生组织,旨在构建一个机器学习从事者交流的平台。除了及时分享领域资讯外,协会还会举办各种业界巨头/学术神牛讲座、学术大牛沙龙分享会、real data 创新竞赛等活动。
今天看啥  ›  专栏  ›  机器学习研究会

CNN模型压缩与加速算法综述

机器学习研究会  · 公众号  · AI  · 2017-10-12 22:56
    

主要观点总结

本文主要介绍了卷积神经网络(CNN)模型的小型化与加速技术,包括SqueezeNet、DeepCompression、XNorNet等方法的原理、实验和速度考量。文章指出,随着CNN模型在图像竞赛任务中精度的不断提升,模型尺寸和计算量也在成倍增长,给移动端和嵌入式芯片的部署带来挑战。因此,模型小型化与加速成为亟待解决的问题。

关键观点总结

关键观点1: SqueezeNet

SqueezeNet是一个小型化的网络模型结构,通过采用1x1卷积核、减小输入通道数和延迟降采样的策略,在保证精度的同时大幅减小模型尺寸。其网络结构由若干个fire module组成,并采用global average pooling去除全连接层。

关键观点2: Deep Compression

Deep Compression通过剪枝、权值量化和霍夫曼编码等技术,实现了深度神经网络的压缩。其中,权值量化基于权值聚类,将连续分布的权值离散化;霍夫曼编码进一步减小了模型尺寸。

关键观点3: XNorNet

XNorNet实现了网络参数和输入的二值化,带来存储压缩和速度提升。提出了新型二值化权值的算法,并在大规模数据集如ImageNet上进行了实验验证。


文章预览

前言 自从AlexNet一举夺得ILSVRC 2012 ImageNet图像分类竞赛的冠军后,卷积神经网络(CNN)的热潮便席卷了整个计算机视觉领域。CNN模型火速替代了传统人工设计(hand-crafted)特征和分类器,不仅提供了一种端到端的处理方法,还大幅度地刷新了各个图像竞赛任务的精度,更甚者超越了人眼的精度(LFW人脸识别任务)。CNN模型在不断逼近计算机视觉任务的精度极限的同时,其深度和尺寸也在成倍增长。 表1 几种经典模型的尺寸,计算量和参数数量对比 Model Model Size(MB) Million Mult-Adds Million Parameters AlexNet [1] >200 720 60 VGG16 [2] >500 15300 138 GoogleNet [3] ~50 1550 6.8 Inception-v3 [4] 90-100 5000 23.2 随之而来的是一个很尴尬的场景:如此巨大的模型只能在有限的平台下使用,根本无法移植到 ………………………………

原文地址:访问原文地址
快照地址: 访问文章快照
总结与预览地址:访问总结与预览