美文网首页神经网络基础边学边问
3. 代价函数为什么选择均方误差,而不用“正确分类的图片的数量”

3. 代价函数为什么选择均方误差,而不用“正确分类的图片的数量”

作者: 欠我的都给我吐出来 | 来源:发表于2019-03-19 21:00 被阅读0次

因为在神经网络中,被正确分类的图像数量所关于权重和偏置的函数并不是一个平滑的函数。对权重和偏置做出的微小变动完全不会影响被正确分类的图像的数量。这会导致我们很难去解决如何改变权重和偏置来取得改进的性能。
均方误差的平滑代价函数则能更好地去解决如何根据权重和偏置中的微分的改变来取得更好的效果。
均方误差可以很好的利用,但是也有其他的代价函数可以使用。

相关文章

  • 3. 代价函数为什么选择均方误差,而不用“正确分类的图片的数量”

    因为在神经网络中,被正确分类的图像数量所关于权重和偏置的函数并不是一个平滑的函数。对权重和偏置做出的微小变动完全不...

  • 一些知识点总结

    损失函数(代价函数): 1.均方误差 2.交叉熵 3. 对数似然函数 激活函数: 1. sigmoid函数 2. ...

  • 2018-12-03线性回归之代价函数

    代价函数 我们可以使用代价函数衡量我们的假设函数的准确性。 此函数另外称为“平方误差函数”或“均方误差”。 平均值...

  • (16)监督学习-分类问题-SVM

    SVM又称为支持向量机。通过求解最大分类间隔(大间距分类器)实现分类、其损失函数为合页损失(均方误差加松弛变量...

  • 2018-10-18 误差分类

    误差的分类bias(平均误差)与variation(均方误差)并且更加复杂的模型并不一定会带来更低的误差。 对于实...

  • MMSE信道估计

    在线性最小均方误差估计(LMMSE)中,采用的准则函数是统计均方误差,首先将待定信道估计值表示为: 其中W是待定的...

  • 机器学习基石第九节

    一些概念: residuals - 剩余的,残余的 残留误差 squared error - 均方误差。均方误差...

  • 机器学习基础之交叉熵与均方误差

    机器学习基础之交叉熵与均方误差 我们都知道,对于分类任务,可以选用交叉熵做为模型的损失函数;对于回归任务,可以选用...

  • GBDT算法梳理

    前向分布算法 负梯度拟合 使用负梯度作为伪残差拟合决策树。 损失函数 均方误差 回归 二分类,多分类 正则化 优缺...

  • MSE与MAE的区别与选择

    均方误差 均方误差(MSE)是最常用的回归损失函数,计算方法是求预测值与真实值之间距离的平方和,公式如图。下图是M...

网友评论

    本文标题:3. 代价函数为什么选择均方误差,而不用“正确分类的图片的数量”

    本文链接:https://www.haomeiwen.com/subject/hghomqtx.html