对于单个样本神经网络的预测:
每个节点的作用
将不同的训练样本组合输入神经网络:
激活函数:
tanh函数几乎在绝大部分场合比signmal函数要好(它的平均值是0,有类似中心化的效果),因此它用在隐藏层中。
signmal函数常用在二元输出层中(可以分出0和1)。其他情况不用。
但是signmal函数和tanh函数都有一个缺点:在数据无穷小和无限大时,他们的斜率趋向于0,这会使得训练变慢。Relu函数x=max(0,z). 优点是x>0时,斜率为1.缺点是想,x<0时,斜率为0。
梯度下降:
梯度下降计算,有点难理解
初始化:
初始化时w不能全部赋值0,这会让神经网络失效。因为这会让每个节点的参数都一样,使它们具有对称性。所以我们要随机的初始权重。但b可以初始成一样的。
为了斜率大,我们需要把w初始化很小。












网友评论