美文网首页人工智能
【No5】信息与熵

【No5】信息与熵

作者: 白熊S | 来源:发表于2018-03-19 09:15 被阅读32次

本篇内容主要讲清信息与熵的概念,为EM算法打下基础。

信息:i(x)=-log(p(x))如果说概率p是对确定性的度量,那么信息就是对不确定性的度量。

独立事件的信息:如果两个事件x和y相互独立,即p(xy)=p(x)p(y),假定x和y的信息量分别为i(x)和i(y),则二者同时发生的信息量应该为i(x^y)=i(x)+i(y)

熵:是对随机变量不确定性的度量。一个系统越是有序,信息熵就越低;反之,一个系统越是混乱,信息熵就越高。所以说信息熵可以被认为是系统有序化成都的一个度量。

不确定性越大,熵值越大;若随机变量退化为定值,熵为0。熵是自信息的期望。

下图为熵的公式:

熵其实定义了一个函数(概率分布函数)到一个值(信息熵)的映射。

单独的-xlog(x)的函数图像如上左图。

熵是所有情况的集合,所以某事件发生的概率为x,那么不发生的概率为(1-x),以跑硬币为例,出现正面的概率为x,出现反面的概率为(1-x),则整个事件应该计算正面与反面所有的情况,即上右图的公式。

根据上右图的概率图,可以返现,当P=0或1的时候,抛硬币的时间最稳定,H(x)最小,当x=0.5,即正面与反面出现的概率相等时,H(x)最大,抛硬币这个时间最不稳定。

其他关于熵的概念:

平均互信息:决策树中的“信息增益”,其实就是平均互信息I(x,y),衡量X,Y的相似性。

联合熵:两个随机变量x,y的联合分布,可以形成联合熵Joint Entropy,H(X,Y)表示。不能做误差衡量。

条件熵:在随机变量X发生的情况下,随机变量Y发生所新带来的熵定义为Y的条件熵,用H(Y|X),用来衡量在已知随机变量X的情况下随机变量Y的不确定性。可用来计算交叉熵。H(Y|X)=H(X,Y)-H(X),表示(X,Y)发生所包含的熵减去X单独发生包含的熵。

交叉熵:H(T;Y),衡量两个概率分布的差异性,逻辑回归中 的代价函数用到了交叉熵。

相对熵:KL散度,也是衡量两个概率分布的差异性。

小结:信息与熵介绍了很多概念,这些概念单独去看有两个感受不知道重点,不知道怎么用。等到EM算法推导看不懂公式时,再回来看这些概念会好很多,在学习有些需要“死记”这些知识。

相关文章

  • 【No5】信息与熵

    本篇内容主要讲清信息与熵的概念,为EM算法打下基础。 信息:i(x)=-log(p(x))如果说概率p是对确定性的...

  • 人工智能通识-科普-信息增益-2

    欢迎关注我的专栏( つ•̀ω•́)つ【人工智能通识】 信息量、信息熵、条件熵、信息增益的关系是怎样的? 信息熵与信...

  • 信息熵与交叉熵

    信息熵一条信息的信息量和它的不确定性有关系,对于不知道不了解的事情,所需要的信息量更大。 对于大概率发生的事情的信...

  • 信息熵与基尼指数的关系

    序 熵的概念中有信息熵、信息增益、信息增益比、基尼指数,这些统统作为决策树分裂的依据,其中,我们需要知道信息熵与基...

  • 信息熵、交叉熵与相对熵

    熵的定义本质上是香浓信息量log(1/p)的期望。 信息熵 编码方案完美时,最短平均编码的长度 交叉熵 编码方案不...

  • 熵、条件熵、信息增益(互信息)

    信息增益 首先明确一点,信息熵是信息量的期望!期望!期望!(各种信息熵都是如此,像熵、条件熵、信息增益)熵:表示随...

  • pyhanlp 共性分析与短语提取内容详解

    简介 HanLP中的词语提取是基于互信息与信息熵。想要计算互信息与信息熵有限要做的是 文本分词进行共性分析。在作者...

  • 信息熵与最大熵模型

    信息熵是什么?机器学习入门:重要的概念---信息熵(Shannon’s Entropy Model)信息熵信息论中...

  • 一文理解机器学习中的各种熵

    本文的目录组织如下: 【1】自信息【2】熵(香农熵)【3】联合熵【4】条件熵【5】互信息(信息增益)【6】 熵、联...

  • ID3与C4.5算法

    写在开始 在开始决策树算法之前,我们需要准备一些信息论的知识: 信息熵 条件熵 信息增益 交叉熵 相对熵 信息熵 ...

网友评论

    本文标题:【No5】信息与熵

    本文链接:https://www.haomeiwen.com/subject/rxdyqftx.html