网站优化页面,沈阳城乡建设局官网,建设个网站多少钱,各网站提交入口有部分内容是转载的知乎的#xff0c;如有侵权#xff0c;请告知#xff0c;删除便是#xff0c;但由于是总结的#xff0c;所以不一一列出原作者是who。
再次感谢#xff0c;也希望给其他小白受益。
首先说明#xff1a;可以不用全连接层的。
理解1#xff1a;
卷…有部分内容是转载的知乎的如有侵权请告知删除便是但由于是总结的所以不一一列出原作者是who。
再次感谢也希望给其他小白受益。
首先说明可以不用全连接层的。
理解1
卷积取的是局部特征全连接就是把以前的局部特征重新通过权值矩阵组装成完整的图。
因为用到了所有的局部特征所以叫全连接。
理解2
从卷积网络谈起卷积网络在形式上有一点点像咱们正在召开的“人民代表大会制度”。卷积核的个数相当于候选人图像中不同的特征会激活不同的“候选人”卷积核。
池化层仅指最大池化起着类似于“合票”的作用不同特征在对不同的“候选人”有着各自的喜好。
全连接相当于是“代表普选”。所有被各个区域选出的代表对最终结果进行“投票”全连接保证了receiptive field 是整个图像既图像中各个部分所谓所有代表都有对最终结果影响的权利。
理解3
假设你是一只小蚂蚁你的任务是找小面包。你的视野还比较窄只能看到很小一片区域。当你找到一片小面包之后你不知道你找到的是不是全部的小面包所以你们全部的蚂蚁开了个会把所有的小面包都拿出来分享了。全连接层就是这个蚂蚁大会~
【感觉有点像盲人摸象】
理解4
例如经过卷积relu后得到3x3x5的输出。
那它是怎么样把3x3x5的输出转换成1x4096的形式 很简单,可以理解为在中间做了一个卷积。 从上图我们可以看出我们用一个3x3x5的filter 去卷积激活函数的输出得到的结果就是一个fully connected layer 的一个神经元的输出这个输出就是一个值。因为我们有4096个神经元。我们实际就是用一个3x3x5x4096的卷积层去卷积激活函数的输出。
以VGG-16再举个例子吧
对224x224x3的输入最后一层卷积可得输出为7x7x512如后层是一层含4096个神经元的FC则可用卷积核为7x7x512x4096的全局卷积来实现这一全连接运算过程。
它把特征representation整合到一起输出为一个值。 这样做,有一个什么好处就是大大减少特征位置对分类带来的影响。
举个简单的例子 从上图我们可以看出猫在不同的位置输出的feature值相同但是位置不同。
对于电脑来说特征值相同但是特征值位置不同那分类结果也可能不一样。
这时全连接层filter的作用就相当于
喵在哪我不管我只要喵于是我让filter去把这个喵找到
实际就是把feature map 整合成一个值这个值大有喵这个值小那就可能没喵
和这个喵在哪关系不大了鲁棒性有大大增强。
因为空间结构特性被忽略了所以全连接层不适合用于在方位上找Pattern的任务比如segmentation。 全连接层中一层的一个神经元就可以看成一个多项式
我们用许多神经元去拟合数据分布
但是只用一层fully connected layer 有时候没法解决非线性问题
而如果有两层或以上fully connected layer就可以很好地解决非线性问题了
我们都知道全连接层之前的作用是提取特征
全连接层的作用是分类
我们现在的任务是去区别一图片是不是猫 假设这个神经网络模型已经训练完了
全连接层已经知道 当我们得到以上特征我就可以判断这个东东是猫了。
因为全连接层的作用主要就是实现分类Classification
从下图我们可以看出 红色的神经元表示这个特征被找到了激活了
同一层的其他神经元要么猫的特征不明显要么没找到
当我们把这些找到的特征组合在一起发现最符合要求的是猫
ok我认为这是猫了
当我们把这些找到的特征组合在一起发现最符合要求的是猫
ok我认为这是猫了 猫头有这么些个特征于是我们下一步的任务
就是把猫头的这么些子特征找到比如眼睛啊耳朵啊 道理和区别猫一样
当我们找到这些特征神经元就被激活了上图红色圆圈
这细节特征又是怎么来的
就是从前面的卷积层下采样层来的
全连接层参数特多可占整个网络参数80%左右
那么全连接层对模型影响参数就是三个
1全连接层的总层数长度 2单个全连接层的神经元数宽度 3激活函数首先我们要明白激活函数的作用是增加模型的非线性表达能力 --------------------- 作者向阳 来源CSDN 原文https://blog.csdn.net/m0_37407756/article/details/80904580 版权声明本文为博主原创文章转载请附上博文链接