机器学习之卷积神经网络

机器学习之卷积神经网络,第1张

机器学习之卷积神经网络 卷积神经网络

卷积神经网络(CNN):卷积+池化+全连接

卷积:特征的自动提取

  • 局部特征提取
  • 训练中进行参数学习
  • 每个卷积核提取特定模式的特征

卷积降低了网络模型的复杂度,减少了权值的数量

卷积所进行的 *** 作也可以说是加权求和的 *** 作

矩阵称为原始图像, 橙色的部分的每个小框的右下角为卷积核

为 原始图像 和 卷积核 点积运算之后得出的 卷积特征

池化(下采样): 降维的一种方式

  • 降低数据维度
  • 增强局部感受野
  • 提高平移不变性

全连接:分类,并且可以换成KNN,决策树,SVM等分类算法

  • 特征提取到分类的桥梁

Padding *** 作:用额外的‘假像素’(通常值为0,因此称为‘零填充’)填充边缘。这样,滑动时的核可以延伸到边缘之外的假像素,允许原始边缘像素位于核中心,从而产生与输入相同大小的输出。

也就是在图像边缘填充0

  1. 无Padding:

    产生一个比原矩阵小的矩阵,为(n-2)*(n-2)的矩阵

  2. 加上Padding:

    卷积核Kernel也叫作滤波器filter,代表图像的而某些特征,也称为神经元。比如垂直边缘,水平边缘,颜色,纹理等等,所有这些神经元加起来就相当于整张图的特征提取器集合。卷积其实就是加权求和,卷积核就是权重

卷积 *** 作其实就是相似度匹配

卷积神经网络训练的就是卷积核,

池化:

  1. 池化层主要的作用是下采样,通过去掉Feature Map中不重要的样本,进一步减少参数数量

  2. 池化的方法很多,最常用的是Max Pooling。Max Pooling实际上就是在n*n的样本中取最大值,作为采样后的样本值

    最大值池化:也就是相当于找出窗口中的最大值,将其组装成一个新的小矩阵(上图的步长为2,如果步长为1,可以得到一个3*3的小矩阵)

    均值池化:也就是找出窗口中的数据的均值,组装成一个小矩阵

欢迎分享,转载请注明来源:内存溢出

原文地址: https://www.outofmemory.cn/zaji/5490816.html

(0)
打赏 微信扫一扫 微信扫一扫 支付宝扫一扫 支付宝扫一扫
上一篇 2022-12-12
下一篇 2022-12-12

发表评论

登录后才能评论

评论列表(0条)

保存