美文网首页
信息熵、交叉熵、联合熵、条件熵、信息增益

信息熵、交叉熵、联合熵、条件熵、信息增益

作者: 陈淀薄发 | 来源:发表于2019-10-28 10:09 被阅读0次

1. 自信息

自信息是信息不确定性的衡量指标。信息发生的可能性越高,包含的信息越少,信息发生的可能性越低,包含的信息量越大。

定义公式: image.png

2. 信息熵

信息熵是自信息的期望值,表示平均大小。它是表达信息量的大小,也是信息不确定性的度量。信息越是不确定,信息量越大,信息熵越高。信息越是有序,信息量越小,信息熵也越小。
信息熵还有一种解读就是信息的编码角度。如果信息越是有序的,极端情况只有一个值,其实用一个bit就可以表达,如果有N个值,那么就考虑用多个bit才能枚举这些值。越是无序,值越多,需要的信息表达的类别也越多,也意味着信息量越大。
定义公式:


image.png

3. 联合熵

对联合概览分布信息量求期望


image.png

4. 条件熵

对某个值的条件概率熵的期望。
注意:条件熵的定义不是直接对条件概率求信息熵。如下图公司所示,对于每个y取值,都有一个熵,因此要再对熵的基础上再计算期望,求出最终的条件熵。


image.png

5. 条件熵 和联合熵的关系

H(Y|X) = H(X,Y) - H(X)
上面表示,联合分布新增的信息量,是有条件熵带来的。

6. 相对熵

衡量真实值和预测值差异的大小的度量。应用场景:机器学习中,需要通过模型训练预测真实值的分布,那么如何评价预测值和真实值的差异呢?就可以通过相对熵来拟合
公式如下:


image.png

说明:如果预测分布和真实分布相等,那么相对熵就是0。也就是说这个值越小,预测值和真实值越接近。反之,差异越大。
非负数性证明


image.png

7. 交叉熵

对上面相对熵的公式变换之后,可以发现:


image.png

由于真实值的熵是一个定值,因此使用交叉熵表示真实值和预测值之间的差异。


image.png

8. 信息增益(互信息量)

衡量两个变量的相关程度。
定义公式,如下:对求期望


image.png

根据公式可以知道,相关程度越高,互信息量越大。反之,越小。如果两个变量完全独立,那么p(x,y) = p(x)p(y),带入上面的公式,此时的信息增益为0。

其中log部分又称为PMI(Pointwise Mutual Information) image.png
信息增益的一个应用:在决策树分类模型中,我们在选择特征进行分裂的时候,选择新信息增益最大的特征进行分裂,这样一次分裂最大程度的减少了整个数据集的不确定性。

9. 互信息量和信息熵的关系

V(X,Y)= H(X)+H(Y)-H(X,Y) = H(Y)-H(Y|X)

10. 增益率

使用信息增益在决策分类模型中,有一个问题。就是会发现信息增益大的特征,总是枚举值特别多的特征。这个比较好理解,比如极端情况下,对于特征X来说,每个样本的取值都不同,也就是说对于每个样本的x取值来说,只有一个y值,那么p(y|x) = 1,也就是x和y相关性很高,这样的话,信息增益也是最大的。为了解决这个问题,就不能直接使用绝对值来看信息增益,需要使用信息增益比率来反映相关性。
这个定义,其实并不能难想。跟我们在统计一个公司的业绩的时候,看同比增长量,也看同比增长率。同比增长率的定义就是 YOY = (today-last)/last。
那么相应的,增益率的定义就是 gain_ratio = (H(Y) - H(Y|X)) / H(Y|X) = V(X,Y)/H(Y|X)

相关文章

  • 信息熵、交叉熵、联合熵、条件熵、信息增益

    1. 自信息 自信息是信息不确定性的衡量指标。信息发生的可能性越高,包含的信息越少,信息发生的可能性越低,包含的信...

  • 一文理解机器学习中的各种熵

    本文的目录组织如下: 【1】自信息【2】熵(香农熵)【3】联合熵【4】条件熵【5】互信息(信息增益)【6】 熵、联...

  • ID3与C4.5算法

    写在开始 在开始决策树算法之前,我们需要准备一些信息论的知识: 信息熵 条件熵 信息增益 交叉熵 相对熵 信息熵 ...

  • 决策树算法梳理

    决策树算法梳理 1. 信息论基础(熵 联合熵 条件熵 信息增益 基尼不纯度) 1.1 熵 (entropy)...

  • 熵、条件熵、信息增益(互信息)

    信息增益 首先明确一点,信息熵是信息量的期望!期望!期望!(各种信息熵都是如此,像熵、条件熵、信息增益)熵:表示随...

  • 决策树算法梳理

    信息论基础(熵 联合熵 条件熵 信息增益 基尼不纯度) 信息熵:信息熵是度量样本集合纯度常用的一种指标。在信息论中...

  • 条件熵,相对熵,交叉熵,联合熵,信息增益

    1 条件熵 1.1 条件熵的定义 给定的条件下,的条件概率分布的熵对的期望;条件熵表示在已知随机变量的条件下随机变...

  • 决策树与随机森林(一)

    转自小象学院 我的学习笔记 1. 复习信息熵:熵,联合熵、条件熵、互信息 2. 决策树学习算法:信息增益 | ID...

  • 熵之道

    熵的定义如下: 互信息 = H(D) - H(D|A) 信息增益 = 经验熵 - 经验条件熵; 互信息和信息增益理...

  • 信息熵相关知识总结

    前言 学习决策树时会接触到一些信息熵,条件熵和信息增益的知识,此外还有互信息,相对熵,交叉熵和互信息,KL散度等等...

网友评论

      本文标题:信息熵、交叉熵、联合熵、条件熵、信息增益

      本文链接:https://www.haomeiwen.com/subject/ybfmvctx.html