美文网首页
2019-10-22 浅层神经网络

2019-10-22 浅层神经网络

作者: 呼噜毛_ | 来源:发表于2019-10-25 17:26 被阅读0次

对于单个样本神经网络的预测:

每个节点的作用

将不同的训练样本组合输入神经网络:

激活函数:

tanh函数几乎在绝大部分场合比signmal函数要好(它的平均值是0,有类似中心化的效果),因此它用在隐藏层中。

signmal函数常用在二元输出层中(可以分出0和1)。其他情况不用。

但是signmal函数和tanh函数都有一个缺点:在数据无穷小和无限大时,他们的斜率趋向于0,这会使得训练变慢。Relu函数x=max(0,z). 优点是x>0时,斜率为1.缺点是想,x<0时,斜率为0。

梯度下降:

梯度下降计算,有点难理解

初始化:

初始化时w不能全部赋值0,这会让神经网络失效。因为这会让每个节点的参数都一样,使它们具有对称性。所以我们要随机的初始权重。但b可以初始成一样的。

为了斜率大,我们需要把w初始化很小。

相关文章

网友评论

      本文标题:2019-10-22 浅层神经网络

      本文链接:https://www.haomeiwen.com/subject/cwfcvctx.html