今天看啥  ›  专栏  ›  wakacaca

卷积神经网络随记

wakacaca  · 掘金  ·  · 2018-11-05 09:14
阅读 12

卷积神经网络随记

基本原理

数据-->前向传播得出损失-->反向传播更新参数

卷积神经网络最核心的任务就是分类任务。
检索任务或者说推荐,比如找出与某个花同类别的花,什么东西和这个比较像,还有类似淘宝的衣服同款推荐。

Detection做的就是两件事,第一件是找到框,我们需要知道什么样的东西是个物体。第二件事就是这个框里面的物体究竟是什么物体。分类和回归一起做。学术界也是非常关注这个Detection
Segmentation:把图片中的每个物体给它裁剪出来。

Detection的应用比如无人驾驶汽车对周围物体的检查,推荐使用显卡处理这类任务。

特征提取的操作。

姿势识别,最重要的事就是关键点的定位。

识别细胞突变,字体识别,标志识别,车牌识别。

计算机来对图片进行描述 CNN+LSTM

融合图像风格

左边是经典的神经网络,右边是卷积神经网络。

卷积神经网络的组成

通过filter进行特征提取。
经过CONV层之后得的东西,我们就叫特征图,即原始图像的概括性代表。

filter的深度一定和与他连接的前一层的深度是一样的。各自filter提取出来的是它们各自的特征图。

将6个filter得到的6个特征图堆叠起来就是我们的输出结果了。

在得到的特征图上再进行特征提取得到下一层特征图。

对原始的特征进行一步又一步的浓缩,原图-->低层次的特征-->中层次的特征-->高层次的特征。

求内积

参数

步长为2是我们得到了9个框。stride太小,得到的框就太多,stride太大 就会漏掉一些图像上的信息,那stride多大合适呢?
2号像素点相比1号像素点被我们利用了2次,那么2号像素点相比1号像素点对于特征图来说是不是贡献了更多的信息,如果要让1号像素点也贡献多一点信息,我们要怎么做?可以利用padding参数,在原始的输入矩阵外围加上一层0

根据输入大小计算输出大小。

参数共享

像全连接层这种情况,需要训练的权重非常多。卷积神经网络有个非常重要的特性就是权重的共享。

输出层大小计算公式

Pooling Layer

对特征图进行一个浓缩又叫下采样。两种压缩方式分别是:mean和max

经过末尾的全连接层得到一些最终的权重,这些权重即可以用来做分类也可以用来做回归。

卷积的前向传播

X向量的维度 第一个数表示输入数据batchd(我们的输入数据是按批次输入的)的第0个样本编号,第二个数代表颜色通道,第三 第四个维度就是图像的高和宽。filter的深度必须是和它前一层的输入深度一致。

卷积的反向传播

池化的反向传播

mean采用均摊的方式,max只保留原来的最大值 其他位置填0




原文地址:访问原文地址
快照地址: 访问文章快照