美文网首页
常见的激活函数

常见的激活函数

作者: RJzz | 来源:发表于2017-11-15 21:39 被阅读144次

注:此文章为吴恩达教授的deeplearning.ai课程笔记,文中图片均来自课程ppt。

为什么要使用非线性激活函数:因为如果不使用非线性的激活函数,那神经网络将变为一个线性的函数,隐含层已经没有了存在的必要。

sigmoid

sigmoid函数

函数的导数为:a(1-a)

tanh(hyper tangent function)

tanh函数

函数的导数为:1-a^2

Relu(rectified linear function)

Relu函数
导数为: image.png

Leaky Relu(带泄露的Relu)

Leaky Relu

使用注意事项:

如果输出0或1,比方说是在做二分类,则可以使用sigmoid作为输出层的激活函数,但一般情况下tanh的表现都比sigmoid好,但是这两个函数都存在一个问题,就是当输入比较大或者比较小的时候,函数导数的梯度会变得很小,不利于梯度下降。所以常用的是Relu函数,但是Relu函数也有一个缺点:当输入为负的时候,函数的导数为0,也就是梯度为0,所以有了后面的带泄露的Relu

相关文章

  • 6.神经网络训练细节part1

    一、激活函数 前边我们学到,一个节点的输出会进入激活函数进行处理 常见的激活函数有以下 sigmoid激活函数 s...

  • Chapter 1.4 激活函数

    下面介绍常见的激活函数 激活函数都在tf.nn中 最常见的是relu函数,它将所有小于0的值置为0 可以看到rel...

  • 常见的激活函数

    注:此文章为吴恩达教授的deeplearning.ai课程笔记,文中图片均来自课程ppt。 为什么要使用非线性激活...

  • 常见的激活函数

    1.Sigmoid函数(S型函数)2.tanh函数(双曲正切函数)-tanh(x)3.ReLU(修正线性单元函数)...

  • 深度学习中的激活函数

    由于简书不支持编辑公式,更好的阅读体验请点击深度学习中的激活函数 激活函数的作用 在介绍几种常见的激活函数之前,我...

  • 3. pytorch-激活函数

    常见激活函数 relu sigmod tanh softplus 示例代码

  • TensorFlow学习5:神经网络优化

    神经元模型 f为激活函数。引入非线性激活因素,提高模型的表达力。常见的激活函数有relu,sigmoid,tanh...

  • 机器学习常见面试问题及答案汇总

    一些常见的机器学习面试题(不定时更新)。 激活函数的作用?激活函数为神经网络提供了非线性。如果不使用激活函数,每一...

  • numpy快速实现激活函数

    对于常见的激活函数:Sigmoid和ReLU,用Numpy可以快速实现:

  • 几种常见的激活函数

    常见的传统激活函数主要有两个:sigmoid和tanh。 首先说一下sigmoid函数。 它是使用范围最广的一...

网友评论

      本文标题:常见的激活函数

      本文链接:https://www.haomeiwen.com/subject/jrsomxtx.html