美文网首页
二.交叉熵损失函数(Softmax损失函数)

二.交叉熵损失函数(Softmax损失函数)

作者: 愿风去了 | 来源:发表于2018-10-30 12:06 被阅读176次

关于交叉熵在loss函数中使用的理解

https://blog.csdn.net/tsyccnh/article/details/79163834

神经网络基本构架

交叉熵损失函数

交叉熵损失函数一般用于分类任务:

softmax函数

详解softmax函数以及相关求导过程

https://zhuanlan.zhihu.com/p/25723112

softmax用于多分类过程中,它将多个神经元的输出,映射到(0,1)区间内,可以看成概率来理解,从而来进行多分类!

交叉熵函数

为什么使用交叉熵损失函数

交叉熵代价函数(作用及公式推导) 

https://blog.csdn.net/u014313009/article/details/51043064

实际情况证明,交叉熵代价函数带来的训练效果往往比二次代价函数要好。

小结

(1)分类问题的目标函数中:交叉熵损失函数是最为常用的分类目标函数,且效果一般优于合页损失函数;大间隔损失函数和中心损失函数从增大类间距离、减小类内距离的角度不仅要求分类准确,而且还有助提高特征的分辨能力;坡道损失函数是分类问题目标函数中的一类非凸损失函数,由于其良好的抗噪特性,推荐将其用于样本噪声或离群点较多的分类任务;

(2)回归问题的目标函数中:l1损失函数和l2损失函数是常用的回归任务目标函数,实际使用l2略优于l1;Tukey‘s biweight损失函数为回归问题中的一类非凸损失函数,同样具有良好的抗噪能力;

(3)在一些如年龄识别,头部角度姿态识别等样本标记不确定性的特殊应用场景下,基于标记分布(label distribution)的损失函数是比较好的选择。

相关文章

  • 损失函数

    聊聊机器学习中的损失函数 机器学习中的损失函数 平方损失(线性回归) 对数损失(交叉熵损失 softmax, lo...

  • 二.交叉熵损失函数(Softmax损失函数)

    关于交叉熵在loss函数中使用的理解https://blog.csdn.net/tsyccnh/article/d...

  • python实现神经网络

    主要提问点 写出softmax损失函数代码(python),以及交叉熵损失函数 判断和消除过拟合的方法dropou...

  • 损失函数 - 交叉熵损失函数

    参考[1]损失函数 - 交叉熵损失函数

  • 机器学习随笔

    1 模型的函数表达式,如逻辑回归函数 2 定义损失函数,最小二乘损失,0/1损失,交叉熵。 3 目标函数,损失函数...

  • Maximum Likelihood 和 Maximum A P

    前言 在研究SoftMax交叉熵损失函数(Cross Entropy Loss Function)的时候,一种方法...

  • 理解熵,交叉熵和交叉熵损失

    交叉熵损失是深度学习中应用最广泛的损失函数之一,这个强大的损失函数是建立在交叉熵概念上的。当我开始使用这个损失函数...

  • 交叉熵损失函数原理详解

    交叉熵损失函数原理详解 之前在代码中经常看见交叉熵损失函数(CrossEntropy Loss),只知道它是分类问...

  • 深度学习问题记录

    献给莹莹 1.为什么交叉熵损失相比均方误差损失能提高以 sigmoid 和 softmax 作为激活函数的层的性能...

  • 交叉熵损失函数

    转自简单的交叉熵损失函数,你真的懂了吗?说起交叉熵损失函数「Cross Entropy Loss」,脑海中立马浮现...

网友评论

      本文标题:二.交叉熵损失函数(Softmax损失函数)

      本文链接:https://www.haomeiwen.com/subject/nraitqtx.html