美文网首页
信息熵与交叉熵

信息熵与交叉熵

作者: 专注吃喝五十年 | 来源:发表于2019-07-18 11:43 被阅读0次

信息熵
一条信息的信息量和它的不确定性有关系,对于不知道不了解的事情,所需要的信息量更大。

对于大概率发生的事情的信息量较小,而越小概率的事情发生的信息量越大。比如太阳从东方升起,概率大信息量小。

对于两个独立事件同时发生的概率为p(x,y)=p(x)p(y),而同时发生时获得的信息量应该等于各自发生时获取的信息之和,I(x,y)=I(x)+I(y) 。
由此可见,I(x)一定与p(x)的对数有关。


图1. 对数运算法则

因此有


图2. I(x)与p(x)的关系
其中负号保证为非负数(其中log底在信息论中通常为2,在机器学习中通常为e,如图3所示,当a>1且0<=p(x)<=1时,为图中标黄一部分,需要取负数使其为非负数)
图3. 对数函数
对一个随机变量的不确定性的度量,是对所有可能发生的事件产生的信息量的期望。
图4. 信息熵公式

从公式可得,随机变量的取值个数越多,信息熵就越大。
当随机分布为均匀分布时,熵最大。

交叉熵
关于样本集的两个概率分布p(x)和q(x),其中p(x)是真实分布,q(x)是非真实分布。如果用非真实分布q(x)来表示来自真实分布p(x)的平均编码长度,则称之为交叉熵。


交叉熵公式

相关文章

  • 信息熵与交叉熵

    信息熵一条信息的信息量和它的不确定性有关系,对于不知道不了解的事情,所需要的信息量更大。 对于大概率发生的事情的信...

  • cross entropy交叉熵和ground truth总结

    一.cross entropy 交叉熵 交叉熵的概念得从信息熵的概念说起,我们都知道信息熵,简而言之就是信息量多少...

  • 信息熵、交叉熵与相对熵

    熵的定义本质上是香浓信息量log(1/p)的期望。 信息熵 编码方案完美时,最短平均编码的长度 交叉熵 编码方案不...

  • ID3与C4.5算法

    写在开始 在开始决策树算法之前,我们需要准备一些信息论的知识: 信息熵 条件熵 信息增益 交叉熵 相对熵 信息熵 ...

  • 信息熵、交叉熵、相对熵

    1 信息熵 信息熵代表的是随机变量或整个系统的不确定性,熵越大,随机变量或系统的不确定性就越大。 1.1 举例 题...

  • 信息熵/相对熵/交叉熵

    信息熵 信息熵也被称为熵,用来表示所有信息量的期望。 其中X是一个离散型随机变量。 相对熵 相对熵即KL散度。如果...

  • 机器学习中的熵、条件熵、相对熵(KL散度)和交叉熵

    GitHub简书CSDN 该文章转载自详解机器学习中的熵、条件熵、相对熵和交叉熵 1、信息熵 (informati...

  • 各种熵,条件熵,KL

    熵、条件熵、交叉熵、相对熵 参考《统计学习方法》李航 通俗理解信息熵 - 忆臻的文章 - 知乎 https://z...

  • 信息熵、条件熵、相对熵、交叉熵

    自信息简单来说,自信息表述的是随机变量的某个事件发生带来的信息量(一个事件)image-2020040322174...

  • 信息熵,条件熵,相对熵,交叉熵

    转自详解机器学习中的熵、条件熵、相对熵和交叉熵[https://www.cnblogs.com/kyrieng/p...

网友评论

      本文标题:信息熵与交叉熵

      本文链接:https://www.haomeiwen.com/subject/gblklctx.html