DL问题

作者: e237262360d2 | 来源:发表于2018-08-10 17:02 被阅读0次

激活函数的作用:能处理非线性特性

如果不用激活函数,输出信号仅是个简单的线性函数,复杂性有限,能从数据中学习复杂函数的能力小。

一个没有激活函数的神经网络只不过是一个线性回归模型

为什么要用RELU激活函数,不用sigmod等函数

Relu:

速度快:一个max(0,x)函数,计算代价小

减轻梯度消失:sigmod在两端的时候,数值变化不大,导数梯度越来越小趋于0,造成梯度消失。Relu导数是1

稀疏性:sigmoide激活率大约是50%,relu函数在输入小于0时是完全不激活的,是更低的激活率。

SIFT提取特征的流程

SIFT 和 HOG 的区别,优缺点

权值共享怎么理解

损失函数:交叉熵,为什么不用平方误

RCNN流程

faster RCNN 和 RCNN 改变了什么

FCN对CNN做了什么改进

算法优缺点

Adam optimizer

相关文章

网友评论

      本文标题:DL问题

      本文链接:https://www.haomeiwen.com/subject/ddrlbftx.html