KL散度(Kullback-Leibler divergence),也称为相对熵,是一种用于衡量两个概率分布之间差异的指标。假设和
是两个概率分布,KL散度的计算公式如下:
其中,表示从
到
的KL散度,
和
分别表示
在
和
中的概率。
KL散度的计算可以理解为从到
的信息损失。具体来说,
表示在用
来近似
时,由于
无法完全表示
的信息,导致信息损失的程度。
KL散度具有以下几个性质:
-
非负性:
,当且仅当
时,等号成立。
-
不对称性:
,即从
到
的KL散度与从
到
的KL散度不相等。
-
无限制性:
可能为无穷大,即当
且
时,
为无穷大。
KL散度在机器学习中有广泛的应用,例如用于衡量两个概率分布之间的差异,用于优化生成式模型的损失函数等。









网友评论