激活函数的作用:能处理非线性特性
如果不用激活函数,输出信号仅是个简单的线性函数,复杂性有限,能从数据中学习复杂函数的能力小。
一个没有激活函数的神经网络只不过是一个线性回归模型
为什么要用RELU激活函数,不用sigmod等函数
Relu:
速度快:一个max(0,x)函数,计算代价小
减轻梯度消失:sigmod在两端的时候,数值变化不大,导数梯度越来越小趋于0,造成梯度消失。Relu导数是1
稀疏性:sigmoide激活率大约是50%,relu函数在输入小于0时是完全不激活的,是更低的激活率。
SIFT提取特征的流程
SIFT 和 HOG 的区别,优缺点
权值共享怎么理解
损失函数:交叉熵,为什么不用平方误
RCNN流程
faster RCNN 和 RCNN 改变了什么
FCN对CNN做了什么改进
算法优缺点
Adam optimizer
网友评论