KL散度(Kullback-Leibler divergence,简称KLD),在讯息系统中称为相对熵(relative entropy),在连续时间序列中称为随机性(randomness),在统计模型推断中称为讯息增益(information gain)。也称讯息散度(information divergence)。
KL散度是两个概率分布P和Q差别的非对称性的度量。 KL散度是用来度量使用基于Q的分布来编码服从P的分布的样本所需的额外的平均比特数。典型情况下,P表示数据的真实分布,Q表示数据的理论分布、估计的模型分布、或P的近似分布。
对于离散随机变量,其概率分布 和 的KL散度可按下式定义为
等价于
即按概率求得的和的对数商的平均值。KL散度仅当概率和各自总和均为1,且对于任何皆满足和可按积分方式定义为
其中和分别表示分布和的密度。
更一般的,若和为集合的概率测度,且关于绝对连续,则从到的KL散度定义为
其中,假定右侧的表达形式存在,则关于的R–N导数。
相应的,若关于绝对连续,则
即为关于的相对熵。
相对熵的值为非负数:
由吉布斯不等式可知,当且仅当到的距离通常并不等于从到的距离。
自信息和KL散度
互信息和KL散度
信息熵和KL散度
条件熵和KL散度
交叉熵和KL散度