“熵”

作者: 可爱多多少 | 来源:发表于2021-10-10 09:41 被阅读0次

"熵"在多个学科中都是一个非常重要的概率,今天我们要探讨的是信息论中的"熵"。

在探讨"熵"之前,我们先来了解一些预备知识点:

"信息","信息量"

"信息"的一种科学性定义为:信息是被消除的不确定性。

"太阳从东方升起",这就不是一条信息。

因为"太阳从东方升起"这是人皆尽知的一件事,它并没有消除不确定性。

但判断一句话是否传达了信息,这也是一个人类主观看待的一个问题。

"太阳是太阳系的中心"对于我们当代人来说不是一条信息。

但对于哥白尼时代及其以前时代的人来说,却是信息量巨大的一句话。

要将"信息"这个科学概率运用于计算机科学中,就必须寻找到一种非常合适的信息量化指标,因为计算机科学是一门数字科学。

"信息量"就是对"信息"数量大小的衡量指标,它的数学表达式为:

图片

其中m为可能情况的数量,比如中国乒乓球队与日本乒乓球队进行比赛,那么比赛的结果就只有两种情况:中国乒乓球队胜、日本乒乓球队胜。

该事件对应的m便为2,带入上式可知该事件的信息量为1,单位为比特。

判断一个数学表达式的好坏,可以通过实例来看它是否符合我们的直觉。

对于中国乒乓球队与日本乒乓球队的比赛,我们的直觉告诉我们中国乒乓球队战胜日本乒乓球队是毫无悬念的,而信息量又是指消除不确定性的定量衡量,所以这不应该是信息量为0吗?

这种质疑是合理的,上述信息量的表达式只有在所有可能发生事件的发生可能性均等的情况下使用才是最合适的。

日常生活中极少发生的事件一旦发生,是非常引人注目的;而司空见惯的事件却很少人会去关注。

因此,极少见事件携带的信息量巨大,即事物出现的概率越小,信息量越大;事物出现的概率越大,信息量越小。

因此,信息量用下式来计算更合适:

图片

上式P表示事件Xi发生的先验概率,所谓先验概率,就是这个事件按照常理,按照一般性规律发生的概率。

在掌握了"信息"、"信息量"这两个概率后,我们再来揭秘"熵"。

"熵"在信息科学中可以表达为信息杂乱程度的量化描述,其数学表达式为:

图片

从上述表达式,我们发现"熵"为各个事件发生的概率乘以各自的信息量,然后各项加和。

通过计算,我们发现熵具有以下规律:

信息越确定、越单一,熵越小;

信息越不确定、越混乱,熵越大。

对于"熵"计算机科学中的运用,我们要把握住"熵是度量信息混乱程度的量"这句话。

相关文章

  • 一、看文章 “熵”不起:从熵、最大熵原理到最大熵模型(一)“熵”不起:从熵、最大熵原理到最大熵模型(二)“熵”不起...

  • 机器学习-面试总结

    决策树问题 1)各种熵的计算熵、联合熵、条件熵、交叉熵、KL散度(相对熵) 熵用于衡量不确定性,所以均分的时候熵最...

  • 熵增原理简史(一)

    前 言 熵增原理简史,从熵的概念、熵的研究史、熵增原理、宇宙熵增和广义熵增原理五方面阐述。特别是后两块内容,对熵...

  • 一文理解机器学习中的各种熵

    本文的目录组织如下: 【1】自信息【2】熵(香农熵)【3】联合熵【4】条件熵【5】互信息(信息增益)【6】 熵、联...

  • 机器学习中的熵、条件熵、相对熵(KL散度)和交叉熵

    GitHub简书CSDN 该文章转载自详解机器学习中的熵、条件熵、相对熵和交叉熵 1、信息熵 (informati...

  • 各种熵,条件熵,KL

    熵、条件熵、交叉熵、相对熵 参考《统计学习方法》李航 通俗理解信息熵 - 忆臻的文章 - 知乎 https://z...

  • 【原创|发展】 华为其实一直在做一件事

    关键词:热力学定律 熵增熵减 负熵熵死 华为的冬天 创新发展 耗散模型 在商言熵 自我...

  • 熵、条件熵、信息增益(互信息)

    信息增益 首先明确一点,信息熵是信息量的期望!期望!期望!(各种信息熵都是如此,像熵、条件熵、信息增益)熵:表示随...

  • 机器学习算法系列(三):最大熵模型

    一、 熵与条件熵 熵度量的是事物的不确定性。越不确定的事物,它的熵就越大。具体的,随机变量熵的表达式为: 且熵满足...

  • 信息熵相关的定义定理

    1. 信息熵 // todo 2. 条件熵 // todo 3. 联合熵 // todo 4. 相对熵KL距离 5...

网友评论

    本文标题:“熵”

    本文链接:https://www.haomeiwen.com/subject/rwqholtx.html