美文网首页
如何计算熵,条件熵和互信息 - 信息论基础

如何计算熵,条件熵和互信息 - 信息论基础

作者: LeeMin_Z | 来源:发表于2018-08-01 23:06 被阅读47次

需要基础:概率论,数学基础

谈到通信中的两个问题:

  1. 数据临界压缩的值:熵 H
  2. 临界通信传输速率的值:信道容量 C

1. 如何计算熵

单个随机变量的熵为该随机变量的不确定度。(编码中多少位bit可以完整表述随机变量X)

  1. 知道随机变量X的概率密度函数,熵用于度量随机变量的平均不确定度。
H-1.png
  1. 两个例子:

a. 均匀分布,编码方式为最简单的,一种编码对应一种可能。

H-2.png

公式可以学成 H(X) = log N

b. 概率非均匀分布,概率大的编码比特数越小。ps:用于决策树定根节点。

H-3.png

2. 条件熵

公式跟以上一样,概率换为联合概率

条件熵.png

3. 互信息

定义两个随机变量的条件熵H(X|Y),即一个随机变量在给定另一个随机变量的条件下的熵。 由另一随机变量导致的原随机变量不确定度的缩减量称为互信息。(是不是很难记,其实我从没记过,看图..)

I(X;Y).png

毕业后才发现学习速度要比读书时更快...

以上截图来源网络,但是我有正版教科书(纸质版),衷心希望所有文件都能出电子版。

上课又用到了 2018.8.1

相关文章

  • 如何计算熵,条件熵和互信息 - 信息论基础

    需要基础:概率论,数学基础 谈到通信中的两个问题: 数据临界压缩的值:熵 H 临界通信传输速率的值:信道容量 C ...

  • 决策树算法梳理

    信息论基础(熵 联合熵 条件熵 信息增益 基尼不纯度) 信息熵:信息熵是度量样本集合纯度常用的一种指标。在信息论中...

  • 熵之道

    熵的定义如下: 互信息 = H(D) - H(D|A) 信息增益 = 经验熵 - 经验条件熵; 互信息和信息增益理...

  • 决策树算法梳理

    决策树算法梳理 1. 信息论基础(熵 联合熵 条件熵 信息增益 基尼不纯度) 1.1 熵 (entropy)...

  • 信息熵相关知识总结

    前言 学习决策树时会接触到一些信息熵,条件熵和信息增益的知识,此外还有互信息,相对熵,交叉熵和互信息,KL散度等等...

  • 一文理解机器学习中的各种熵

    本文的目录组织如下: 【1】自信息【2】熵(香农熵)【3】联合熵【4】条件熵【5】互信息(信息增益)【6】 熵、联...

  • 信息熵 小结

    各类熵的定义和计算 单个变量的信息熵的计算公式如下 两个变量的联合熵计算公式 条件熵是条件分布上关于起条件作用的那...

  • ID3与C4.5算法

    写在开始 在开始决策树算法之前,我们需要准备一些信息论的知识: 信息熵 条件熵 信息增益 交叉熵 相对熵 信息熵 ...

  • 决策树与随机森林(一)

    转自小象学院 我的学习笔记 1. 复习信息熵:熵,联合熵、条件熵、互信息 2. 决策树学习算法:信息增益 | ID...

  • 信息论基础(熵,互信息,交叉熵)

    1 熵 1.1 自信息和熵   熵(Entropy)最早是物理学的概念,用于表示一个热力学系统的无序程度。1948...

网友评论

      本文标题:如何计算熵,条件熵和互信息 - 信息论基础

      本文链接:https://www.haomeiwen.com/subject/ptbplftx.html