请选择 进入手机版 | 继续访问电脑版
搜索
房产
装修
汽车
婚嫁
健康
理财
旅游
美食
跳蚤
二手房
租房
招聘
二手车
教育
茶座
我要买房
买东西
装修家居
交友
职场
生活
网购
亲子
情感
龙城车友
找美食
谈婚论嫁
美女
兴趣
八卦
宠物
手机

卷积神经网络入门(深度学习准备二)

[复制链接]
查看: 33|回复: 0

7870

主题

1万

帖子

3万

积分

管理员

Rank: 9Rank: 9Rank: 9

积分
31892
发表于 2019-11-9 09:31 | 显示全部楼层 |阅读模式
1、卷积神经收集组成

卷积神经收集由 卷积层、池化层、全毗连层组成,本文重要展现每一个条理的组成以及底子参数运算法例。

  • 卷积层(Convolution Layer)
   卷积层的重要感化是对输入的数据举行特征提取,而完成该功用的是卷积层中的卷积核(Filter),卷积核可以看成是一个指定窗口巨细的扫描器。扫描器经过一次又一次地扫描输入的数据,来提取数据中的特征。举个例子,假定有一个 32*32*3 舆图像,其中 32*32 指图像的高度和宽度, 3 指图像的深度,即图像有三个色彩通道(R: red、G: green、B: blue)。我们界说一个3*3*3的卷积核,那末 3*3 就是指卷积核的高度和宽度, 3 指卷积核的深度,凡是卷积核的高度和深度为 3*3 大要 5*5,深度同如果此外图像。假如输入的图像是单色彩通道的,那末卷积核的深度就是 1,以此类推。
   卷积核处置赏罚图像矩阵的方式以下:
卷积神经网络入门(深度学习准备二)  游戏 1777899-20191108204126481-1298908386



    如上图所示,输入图像是一个 4*4*1 的单色彩通道图像,卷积核巨细为 2*2*1 ,步长为1(即每移动一次,卷积核滑动的窗口位置变革),每一次卷积的操纵进程就是将对应位置相乘,求和获得输出特征图矩阵的位置。
    对于第一个元素,假定输入图像矩阵为W,卷积核矩阵为X,输出图像矩阵为Z,那末:
    Z00=W00*X00+W01*X01+W10*X10+W11*X11;
    Z01=W01*X00+W02*X01+W11*X10+W12*X11;
    ……
    Z22=W22*X00+W23*X01+W32*X10+W33*X11;
    
    卷积结果可以经过鸿沟像素加添方式提升。我们在对输入图像举行卷积之前,有两种鸿沟像素加添方式可以挑选,别离是Valid和Same。Valid就是间接对输入图像举行卷积,差池输入图像举行任何前期处置赏罚和像素加添,这类方式大要会致使图像中部分像素点不能被滑动窗口(卷积核)捕捉;Same方式则是在输入图像之前将输入图像的最外层加上指定层数的值全为0的像素鸿沟,如答应以大要使得输入图像的全数像素都能别滑动窗口(卷积核)捕捉。具体可参照下图。
    Valid形式,输入图像5*5*1,卷积核3*3*1,卷积核步长为1:
卷积神经网络入门(深度学习准备二)  游戏 1777899-20191108205336236-2047380657


    Same形式,输入图像7*7*1,卷积核3*3*1,卷积核步长为2:

卷积神经网络入门(深度学习准备二)  游戏 1777899-20191108205357808-111907143



(上图转载自https://blog.51cto.com/gloomyfish/2108390,作者gloomyfish

经过对卷积进程的盘算,我们可以得出一个卷积的通用公式:
卷积神经网络入门(深度学习准备二)  游戏 1777899-20191108205919832-1614307552



  其中W(Weight)和H(Height)别离表示图像的宽度和高度,下标 input 表示输入图像的关连参数,output 表示输出图像的关连参数,filter 表示卷积核关连的参数,S表示卷积核的步长,P(Padding)表现在图像边沿增加的鸿沟层数。假如挑选的是 Same 形式,那末 P 的值即是图像增加的鸿沟层数;而 Valid 形式下,P = 0.
  用一个实例来说明:对于一个 7*7*1 的输入图像,图像最外层操纵了一层鸿沟像素加添,卷积核巨细为 3*3*1,步长为1,操纵的是Same形式,那末输出图像的宽度和高度为为(7-3+2*1)/1 + 1 =7,深度同输入图像,即输出图像深度为 1,单色彩通道。
  其中还可以加入偏置,即如同前一篇博文所讲(https://www.cnblogs.com/Rebel3/p/11821541.html),类似于这里只盘算了 z=WT*X,以后可以再加入b作为偏置使得图像不经过原点。

  • 池化层
  池化层可以看成是卷积神经收集合的一种提取输入数据的焦点特征的方式,不单实现了对数据的紧缩,还淘汰了加入模子运算的参数,从而进步了盘算服从。池化层处置赏罚的输入数据一样平常情况下是经过卷积操纵以后天生的特征图。常用的池化层方式是最大池化层安静均池化层,以下图所示:
卷积神经网络入门(深度学习准备二)  游戏 1777899-20191108212843750-657259068


    池化层也需要界说一个类似于卷积核的滑动窗口,称之为目标特征图,而输入的卷积层的原始输入数据称为原特征图。目标特征图的宽度和高度、步长类似卷积核,在此不再赘述,最大池化层就是将一个滑动窗口的最大值赋值给目标特征图响应位置。而均匀池化层就是将一个滑动窗口内的数值求均匀值,将均匀值赋值给目标特征图对应位置。(均匀分母为滑动窗口内数的个数)
    一样的,我们也可以总结出一个适用于池化层的通用公式:
卷积神经网络入门(深度学习准备二)  游戏 1777899-20191108214121632-1808970295

    其中W(Weight)和H(Height)别离表示图像的宽度和高度,下标 input 表示输入图像的关连参数,output 表示输出图像的关连参数,filter 表示卷积核关连的参数,S表示滑动窗口的步长。
    一样的,举个例子,由卷积层获得某图像的特征图为 16*16*6 巨细,池化层的滑动窗口巨细为 2*2*6,步长 stride 为 2,因而可以获得目标特征图巨细为[(16-2)/2+1]*[(16-2)/2+1]*6=8*8*6,获得的特征图宽度和高度比原特征图紧缩了近一半,这也印证了池化层的感化——最大限度地提取输入的特征图的焦点特征,还能对输入的特征图举行紧缩。

  • 全毗连层
  全毗连层重要感化是将输入图像在经过卷积和池化操纵后提取的特征举行紧缩(不丢脸出,卷积层提取特征图,池化层紧缩特征图并提取焦点特征,全毗连层紧缩特征),并按照紧缩的特征完成模子的分类功用。
  举个例子:假定对于一张图片,我们经过卷积和池化进程以后,获得了特征矩阵,巨细为1*3072,而全毗连层的权重参数矩阵为10*3072,即以下图所示
卷积神经网络入门(深度学习准备二)  游戏 1777899-20191108220521398-1200382752

  则在全毗连以后,获得的将是一个1*10的焦点特征矩阵,这10个参数已经是一个分类的结果,再经激活函数的进一步处置赏罚,就能让我们的分类猜测结果加倍明显。

加油!在秃顶的路上高歌猛进!

















免责声明:假如加害了您的权益,请联系站长,我们会实时删除侵权内容,感谢合作!

本帖子中包含更多资源

您需要 登录 才可以下载或查看,没有帐号?立即注册

x
回复

使用道具 举报

您需要登录后才可以回帖 登录 | 立即注册

本版积分规则

Copyright © 2006-2014 妈妈网-中国妈妈第一,是怀孕、育儿、健康等知识交流传播首选平台 版权所有 法律顾问:高律师 客服电话:0791-88289918
技术支持:迪恩网络科技公司  Powered by Discuz! X3.2
快速回复 返回顶部 返回列表