美文网首页
池化、线性、激活函数层

池化、线性、激活函数层

作者: 真是个点子王 | 来源:发表于2020-04-04 11:59 被阅读0次

一、池化层(Pooling Layer)


  • 池化运算:对信号进行“收集”并“总结”,类似水池收集水资源,因而得名池化层。
  • 在尽可能保留图片空间信息的前提下,降低图片的尺寸,增大卷积核感受野,提取高层特征,同时减少网络参数量,预防过拟合。
  • 其具体操作与卷积层的操作基本相同,只不过下采样的卷积核为只取对应位置的最大值、平均值等(最大池化、平均池化),即矩阵之间的运算规律不一样,并且不经过反向传播的修改。


nn.MaxPool2d


nn.AvgPool2d


二、线性层


  • 线性层又称全连接层,其每个神经元与上层所有神经元相连,实现对前一层的线性组合,线性变换



三、激活函数层(Activation Layer)


  • 在全连接网络每一层之间通常会引入激活函数层,激活函数层赋予了神经网络深度的意义。因为如果没有激活函数层,多层的全连接网络本质上与一层全连接网络是等价的。

1、nn.Sigmoid


2、nn.tanh


3、nn.ReLu


相关文章

  • 池化、线性、激活函数层

    一、池化层(Pooling Layer) 池化运算:对信号进行“收集”并“总结”,类似水池收集水资源,因而得名池化...

  • About Activation Function All Yo

    激活函数 激活函数的意义:激活函数为层与层之间增加非线性连接,增加模型的复杂性,如果层之间没有非线性,那么即使很深...

  • 激活函数作用

    1、激活函数作用 解决不能用线性方程概括的问题 感知机原方程:(线性) 添加激活函数:(非线性化) 注意:激活函数...

  • Task03:字符识别模型

    0. CNN原理和发展 CNN由卷积(convolution)、池化(pooling)、非线性激活函数(non-l...

  • keras实现常用深度学习模型

    LeNet:基于渐变的学习应用于文档识别 一些要点: 每个卷积层包含三个部分:卷积、池化和非线性激活函数使用卷积提...

  • tensorflow之深度学习-卷积神经网络

    卷积神经网络(CNN)由输入层、卷积层、激活函数、池化层、全连接层组成,即INPUT(输入层)-CONV(卷积层)...

  • 卷积神经网络_(1)卷积层和池化层学习

    卷积神经网络(CNN)由输入层、卷积层、激活函数、池化层、全连接层组成,即INPUT-CONV-RELU-POOL...

  • 2020-09-24 CNN 神经网络结构笔记(一)

    CNN 的结构 包括 输入层,若干的卷积层+ReLU激活函数,若干的池化层,DNN全连接层,以及最后的用Softm...

  • Day 5: 激活函数

    激活函数 神经网络的每一层基本都是在一个线性运算后面来一个非线性激活函数(Activation function)...

  • 一.激活函数(activation functions)

    为什么使用激活函数? 激活函数通常有如下一些性质: 非线性: 当激活函数是非线性的时候,一个两层的神经网络就可以逼...

网友评论

      本文标题:池化、线性、激活函数层

      本文链接:https://www.haomeiwen.com/subject/ogbdphtx.html