美文网首页技术心得
【整理】关于偏置项 b

【整理】关于偏置项 b

作者: Eric_i33 | 来源:发表于2018-07-15 20:46 被阅读5次

对于逻辑回归而言,如果没有偏置项 b,那么就只能在空间里画过原点的直线/平面/超平面。这时对于绝大部分情况,比如下图,要求决策面过原点的话简直是灾难。

因此,对于逻辑回归来说,必须要加上这个偏置项b,才能保证分类器可以在空间的任何位置画决策面(必须画直的,不能弯,嘤…)。

同样的道理,对于多个逻辑回归组成的神经网络,更要加上偏置项b了。但是想一想,如果隐层有3个节点,那就相当于有3个逻辑回归分类器啊。这三个分类器各画各的决策面,那一般情况下它们的偏置项b也会各不相同的呀。比如下面这个复杂的决策边界就可能是由三个隐层节点的神经网络画出来的:

那如何机智的为三个分类器(隐节点)分配不同的b呢?或者说如果让模型在训练的过程中,动态的调整三个分类器的b以画出各自最佳的决策面呢?

那就是先在X的前面加个1,作为偏置项的基底,(此时X就从n维向量变成了n+1维向量,即变成 [1, x1,x2…] ),然后,让每个分类器去训练自己的偏置项权重,所以每个分类器的权重就也变成了n+1维,即[w0,w1,…],其中,w0就是偏置项的权重,所以1*w0就是本分类器的偏置/截距啦。这样,就让截距b这个看似与斜率W不同的参数,都统一到了一个框架下,使得模型在训练的过程中不断调整参数w0,从而达到调整b的目的。

所以,如果你在写神经网络的代码的时候,要是把偏置项给漏掉了,那么神经网络很有可能变得很差,收敛很慢而且精度差,甚至可能陷入“僵死”状态无法收敛。因此,除非你有非常确定的理由去掉偏置项b,否则不要看它小,就丢掉它哦。

神经网络中的偏置项b到底是什么?

相关文章

  • 【整理】关于偏置项 b

    对于逻辑回归而言,如果没有偏置项 b,那么就只能在空间里画过原点的直线/平面/超平面。这时对于绝大部分情况,比如下...

  • 网络偏置项b的作用

    没有偏置项b,决策面被限制为必经过原点。 加上偏置项b,才能保证分类器可以在空间的任何位置画决策面。 参考:htt...

  • 【DL笔记】神经网络参数初始化的学问

    我们已经知道,神经网络的参数主要是权重(weights):W, 和偏置项(bias):b。训练神经网络的时候需先给...

  • Day 3: 参数初始化

    神经网络参数初始化 神经网络的参数主要是权重(weights):W, 和偏置项(bias):b 1) 0初始化 不...

  • 19-tensorflow实现线性回归

    线性回归 权重与特征相乘的和再加上偏置项。所以线性回归就是找到权重与偏置项的值 算法:线性回归策略:均方误差优化:...

  • RNN

    隐状态 记忆储存:h可以对序列数据提供特征,然后再转化为输出。 U、W:权值矩阵;b:偏置项;f:激活函数,在RN...

  • 感知机

    感知机模型 f(x)=sign(w*x+b)sign是符号函数,取值+1或-1;w是权值向量,b叫做偏置。线性方程...

  • 感知机

    1.线性回归 1.1表达式: 其中 通常作为偏置项,在数据预处理的时候添加项 1.2损失函数: 可以看出数据特征经...

  • 《NNADL》笔记101:感知器-Perceptrons

    关于代价函数的两个假设 反向传播算法的目标是计算代价函数C对神经网络中出现的所有权重w和偏置b的偏导数∂C/∂w和...

  • tensorflow 参数初始化

    tf.constant_initializer() 用常数初始化参数,通常用于初始化偏置项。 tf.zeros_i...

网友评论

    本文标题:【整理】关于偏置项 b

    本文链接:https://www.haomeiwen.com/subject/mpqmpftx.html