互信息

✍ dations ◷ 2025-04-02 08:48:17 #信息论,信息学熵

在概率论和信息论中,两个随机变量的互信息(mutual Information,简称MI)或转移信息(transinformation)是变量间相互依赖性的量度。不同于相关系数,互信息并不局限于实值随机变量,它更加一般且决定着联合分布 p(X,Y) 和分解的边缘分布的乘积 p(X)p(Y) 的相似程度。互信息是点间互信息(英语:Pointwise mutual information)(PMI)的期望值。互信息最常用的单位是bit。

一般地,两个离散随机变量 和 的互信息可以定义为:

其中 (, ) 是 和 的联合概率分布函数,而 p ( x ) {\displaystyle p(x)} 和 的边缘概率分布函数。

在连续随机变量的情形下,求和被替换成了二重定积分:

其中 (, ) 当前是 和 的联合概率函数,而 p ( x ) {\displaystyle p(x)} 和 的边缘概率密度函数。

如果对数以 2 为基底,互信息的单位是bit。

直观上,互信息度量 和 共享的信息:它度量知道这两个变量其中一个,对另一个不确定度减少的程度。例如,如果 和 相互独立,则知道 不对 提供任何信息,反之亦然,所以它们的互信息为零。在另一个极端,如果 是 的一个确定性函数,且 也是 的一个确定性函数,那么传递的所有信息被 和 共享:知道 决定 的值,反之亦然。因此,在此情形互信息与 (或 )单独包含的不确定度相同,称作 (或 )的熵。而且,这个互信息与 的熵和 的熵相同。(这种情形的一个非常特殊的情况是当 和 为相同随机变量时。)

互信息是 和 的联合分布相对于假定 和 独立情况下的联合分布之间的内在依赖性。于是互信息以下面方式度量依赖性:(; ) = 0 当且仅当 和 为独立随机变量。从一个方向很容易看出:当 和 独立时,(,) = () (),因此:

此外,互信息是非负的(即 I ( X ; Y ) 0 {\displaystyle I(X;Y)\geq 0} (|) 和 (|) 是条件熵,而 (,) 是 和 的联合熵。注意到这组关系和并集、差集和交集的关系类似,于是用Venn图表示。

在互信息定义的基础上使用琴生不等式,我们可以证明 (;) 是非负的,因此   H ( X ) H ( X | Y ) {\displaystyle \ H(X)\geq H(X|Y)} () 看作一个随机变量于不确定度的量度,那么 (|) 就是"在已知 事件后事件会发生"的不确定度。于是第一个等式的右边就可以读作“将"Y事件的不确定度",减去 --- "在基于事件后事件因此发生的不确定度"”。

这证实了互信息的直观意义为: "因X而有Y事件"的熵( 基于已知随机变量的不确定性) 在"Y事件"的熵之中具有多少影响地位( "Y事件所具有的不确定性" 其中包含了多少 "Y|X事件所具有的不确性" ),意即"Y具有的不确定性"有多少程度是起因于X事件;

    

所以具体的解释就是: 互信息越小,两个来自不同事件空间的随机变量彼此之间的关系性越低; 互信息越高,关系性则越高 。


注意到离散情形 (|) = 0,于是 () = (;)。因此 (;) ≥ (;),我们可以制定”一个变量至少包含其他任何变量可以提供的与它有关的信息“的基本原理。

互信息也可以表示为两个随机变量的边缘分布 和 的乘积 () × () 相对于随机变量的联合熵 (,) 的相对熵:

此外,令 (|) = (, ) / ()。则

注意到,这里相对熵涉及到仅对随机变量 积分,表达式 D K L ( p ( x | y ) p ( x ) ) {\displaystyle D_{\mathrm {KL} }(p(x|y)\|p(x))} 为变量。于是互信息也可以理解为相对熵 的单变量分布 () 相对于给定 时 的条件分布 (|) :分布 (|) 和 () 之间的平均差异越大,信息增益越大。

对连续型随机变量量化的定义如下:

f ( x i ) Δ = i Δ ( i + 1 ) Δ f ( x ) d x = p i {\displaystyle f(x_{i})\Delta =\int _{i\Delta }^{(i+1)\Delta }f(x)dx=p_{i}}

量化后的随机变量 X Δ {\displaystyle X^{\Delta }} :

X Δ = x i , i Δ X < ( i + 1 ) Δ {\displaystyle X^{\Delta }=x_{i},i\Delta \leq X<(i+1)\Delta }

则,

I ( X Δ ; Y Δ ) = H ( X Δ ) H ( X Δ | Y Δ ) {\displaystyle I(X^{\Delta };Y^{\Delta })=H(X^{\Delta })-H(X^{\Delta }|Y^{\Delta })}

h ( X ) l o g Δ ( h ( X | Y ) l o g Δ ) {\displaystyle \approx h(X)-log{\Delta }-(h(X|Y)-log{\Delta })}

= I ( X ; Y ) {\displaystyle =I(X;Y)}

广义而言,我们可以将互信息定义在有限多个连续随机变量值域的划分。

χ {\displaystyle \chi } 为连续型随机变量的值域, P i P {\displaystyle P_{i}\in P} , 其中 P {\displaystyle P} χ {\displaystyle \chi } 划分所构成的集合,意即 i P i = χ {\displaystyle \cup _{i}P_{i}=\chi }

P {\displaystyle P} 量化连续型随机变量 X {\displaystyle X} 后,所得结果为离散型随机变量,

P r ( P = i ) = P i d F ( x ) {\displaystyle Pr(_{P}=i)=\int _{P_{i}}dF(x)}

对于两连续型随机变量X、Y,其划分分别为P、Q,则其互信息可表示为:

I ( X ; Y ) = s u p P , Q I ( P ; Q ) {\displaystyle I(X;Y)={\underset {P,Q}{sup}}I(_{P};_{Q})}


相关

  • 烹饪烹饪,又称烹调、烹煮、炊煮、造饭、做菜,指将食材处理并制作成食物、菜肴、餐点、膳食的方法。一个好的菜肴,色香味形俱佳,不但让人在食用时感到满足,而且能让食物的营养更容易被
  • 艾里亚斯·詹姆斯·科里艾里亚斯·詹姆斯·科里(英语:Elias James Corey,1928年7月12日-),美国有机化学家,有机合成化学领域的一代宗师,也是一个备受争议的人物。1990年诺贝尔化学奖得主,得奖原因是“发展了
  • 呼吸酶电子传递链又称呼吸链,是氧化磷酸化的一部分,位于原核生物细胞膜或者真核生物的线粒体内膜上,叶绿体在类囊体膜上所进行的进行光合磷酸化过程,高能电子在膜上一系列蛋白传送的过
  • 荷尔-阿哈荷尔-阿哈(Hor-Aha),目前埃及学学者普遍认为他是古埃及第一王朝的第二位法老。荷尔-阿哈出生于公元前3100年。“荷尔”一名是埃及神话中隼神荷鲁斯的音译,而阿哈则有“战斗”、
  • 材料性质热力学上的“材料性质”一词指某种给定材料的内禀性质,它们多与热力学势的二阶偏导数有着直接联系。对于一个简单的单组分系统,常见的材料性质有:以上各式中,
  • νsubτ/subτ中微子(Tau neutrino)是基本粒子中微子的一类,不带电荷,符号为ντ;与τ子一起共同组成了第三代轻子,因此称作τ中微子。马丁·佩尔与其同事在1974年到1977年间于SLAC 国家加速
  • 白读音文白异读是汉语族的一种特有现象,一些汉字在汉语中有两种发音:文读和白读,两者代表不同的语音层次:汉语中的白读普遍是在《广韵》或更早的音系基础上继承和发展来的语言固有成分
  • 金 萍金萍(1963年-),回族,中华人民共和国政治人物,河南省青联副主席、河南省影视家协会副主席、省歌舞演艺集团副总经理,第十一届全国政协委员。2008年,当选第十一届全国政协委员,代表中华
  • 头目头目可以指:
  • 最后鬣狗最后鬣狗(学名:)是斑鬣狗已灭绝的一个亚种,分布于东亚。和洞鬣狗一样,它比斑鬣狗的体型更大也更强壮。