互信息

✍ dations ◷ 2025-08-02 21:21:50 #信息论,信息学熵

在概率论和信息论中,两个随机变量的互信息(mutual Information,简称MI)或转移信息(transinformation)是变量间相互依赖性的量度。不同于相关系数,互信息并不局限于实值随机变量,它更加一般且决定着联合分布 p(X,Y) 和分解的边缘分布的乘积 p(X)p(Y) 的相似程度。互信息是点间互信息(英语:Pointwise mutual information)(PMI)的期望值。互信息最常用的单位是bit。

一般地,两个离散随机变量 和 的互信息可以定义为:

其中 (, ) 是 和 的联合概率分布函数,而 p ( x ) {\displaystyle p(x)} 和 的边缘概率分布函数。

在连续随机变量的情形下,求和被替换成了二重定积分:

其中 (, ) 当前是 和 的联合概率函数,而 p ( x ) {\displaystyle p(x)} 和 的边缘概率密度函数。

如果对数以 2 为基底,互信息的单位是bit。

直观上,互信息度量 和 共享的信息:它度量知道这两个变量其中一个,对另一个不确定度减少的程度。例如,如果 和 相互独立,则知道 不对 提供任何信息,反之亦然,所以它们的互信息为零。在另一个极端,如果 是 的一个确定性函数,且 也是 的一个确定性函数,那么传递的所有信息被 和 共享:知道 决定 的值,反之亦然。因此,在此情形互信息与 (或 )单独包含的不确定度相同,称作 (或 )的熵。而且,这个互信息与 的熵和 的熵相同。(这种情形的一个非常特殊的情况是当 和 为相同随机变量时。)

互信息是 和 的联合分布相对于假定 和 独立情况下的联合分布之间的内在依赖性。于是互信息以下面方式度量依赖性:(; ) = 0 当且仅当 和 为独立随机变量。从一个方向很容易看出:当 和 独立时,(,) = () (),因此:

此外,互信息是非负的(即 I ( X ; Y ) 0 {\displaystyle I(X;Y)\geq 0} (|) 和 (|) 是条件熵,而 (,) 是 和 的联合熵。注意到这组关系和并集、差集和交集的关系类似,于是用Venn图表示。

在互信息定义的基础上使用琴生不等式,我们可以证明 (;) 是非负的,因此   H ( X ) H ( X | Y ) {\displaystyle \ H(X)\geq H(X|Y)} () 看作一个随机变量于不确定度的量度,那么 (|) 就是"在已知 事件后事件会发生"的不确定度。于是第一个等式的右边就可以读作“将"Y事件的不确定度",减去 --- "在基于事件后事件因此发生的不确定度"”。

这证实了互信息的直观意义为: "因X而有Y事件"的熵( 基于已知随机变量的不确定性) 在"Y事件"的熵之中具有多少影响地位( "Y事件所具有的不确定性" 其中包含了多少 "Y|X事件所具有的不确性" ),意即"Y具有的不确定性"有多少程度是起因于X事件;

    

所以具体的解释就是: 互信息越小,两个来自不同事件空间的随机变量彼此之间的关系性越低; 互信息越高,关系性则越高 。


注意到离散情形 (|) = 0,于是 () = (;)。因此 (;) ≥ (;),我们可以制定”一个变量至少包含其他任何变量可以提供的与它有关的信息“的基本原理。

互信息也可以表示为两个随机变量的边缘分布 和 的乘积 () × () 相对于随机变量的联合熵 (,) 的相对熵:

此外,令 (|) = (, ) / ()。则

注意到,这里相对熵涉及到仅对随机变量 积分,表达式 D K L ( p ( x | y ) p ( x ) ) {\displaystyle D_{\mathrm {KL} }(p(x|y)\|p(x))} 为变量。于是互信息也可以理解为相对熵 的单变量分布 () 相对于给定 时 的条件分布 (|) :分布 (|) 和 () 之间的平均差异越大,信息增益越大。

对连续型随机变量量化的定义如下:

f ( x i ) Δ = i Δ ( i + 1 ) Δ f ( x ) d x = p i {\displaystyle f(x_{i})\Delta =\int _{i\Delta }^{(i+1)\Delta }f(x)dx=p_{i}}

量化后的随机变量 X Δ {\displaystyle X^{\Delta }} :

X Δ = x i , i Δ X < ( i + 1 ) Δ {\displaystyle X^{\Delta }=x_{i},i\Delta \leq X<(i+1)\Delta }

则,

I ( X Δ ; Y Δ ) = H ( X Δ ) H ( X Δ | Y Δ ) {\displaystyle I(X^{\Delta };Y^{\Delta })=H(X^{\Delta })-H(X^{\Delta }|Y^{\Delta })}

h ( X ) l o g Δ ( h ( X | Y ) l o g Δ ) {\displaystyle \approx h(X)-log{\Delta }-(h(X|Y)-log{\Delta })}

= I ( X ; Y ) {\displaystyle =I(X;Y)}

广义而言,我们可以将互信息定义在有限多个连续随机变量值域的划分。

χ {\displaystyle \chi } 为连续型随机变量的值域, P i P {\displaystyle P_{i}\in P} , 其中 P {\displaystyle P} χ {\displaystyle \chi } 划分所构成的集合,意即 i P i = χ {\displaystyle \cup _{i}P_{i}=\chi }

P {\displaystyle P} 量化连续型随机变量 X {\displaystyle X} 后,所得结果为离散型随机变量,

P r ( P = i ) = P i d F ( x ) {\displaystyle Pr(_{P}=i)=\int _{P_{i}}dF(x)}

对于两连续型随机变量X、Y,其划分分别为P、Q,则其互信息可表示为:

I ( X ; Y ) = s u p P , Q I ( P ; Q ) {\displaystyle I(X;Y)={\underset {P,Q}{sup}}I(_{P};_{Q})}


相关

  • 有孔虫门见内文有孔虫门(学名:Foraminifera),为变形虫状原生生物的大分类。它们拥有的网状假足及幼细线状细胞质会分散及融合而形成动态的网,它们会形成有一个或多个室的外壳,部分在结构上
  • Ag银(原子量:107.8682(2))共有74个同位素,其中有2个同位素是稳定的。备注:画上#号的数据代表没有经过实验的证明,只是理论推测而已,而用括号括起来的代表数据不确定性。
  • 范德瓦耳斯方程范德华方程(van der Waals equation)(一译范德瓦耳斯方程),简称范氏方程,是荷兰物理学家范德华于1873年提出的一种实际气体状态方程。范氏方程是对理想气体状态方程的一种改进,特点
  • 疗养院疗养院是一种医疗设施,为需要长期照料的病患(如肺结核、痳疯病患者)、残疾人士或老年人设置,也有疗养院是安排末期病人入住,并提供舒缓治疗及灵养服务,提高末期病人的生活品质。疗
  • 中国中车中国中车股份有限公司(英语:CRRC Corporation Limited,缩写:CRRC),简称中国中车(港交所:1766,上交所:601766),是中国一家从事铁路机车、铁路车辆、动车组、地铁及其零部件的研发、制造、
  • 西洞庭湖西洞庭湖自然保护区位于湖南省汉寿县境内,总面积42万亩。属省级湿地自然保护区,成立于2001年1月。
  • 黄平县黄平县是中华人民共和国贵州省黔东南苗族侗族自治州下属的一个县。面积1668平方公里,2002年人口33万。苗族为主,通用苗语黔东方言。邮政编码556100,县政府驻新州镇。黄平县下辖
  • 苦橙苦橙(学名:×),又称酸橙、塞维利亚柑橘,是柚()与橘()的杂交种,属芸香科柑橘属植物。栽培品种玳玳花(× Amara)开白花,香气浓郁。苦橙源于地中海。早于古希腊时代,已被古希腊人用作芳香疗法
  • 高压共轨高压共轨燃油直喷(Common rail direct fuel injection)是汽油机与柴油机的一种燃油直喷技术。对于柴油机,燃油压力高达1,800 bar或180 MPa或26,000 psi,引擎运转时高压共轨使
  • 亚历山大·杜金亚历山大·杜金 俄语:Алекса́ндр Ге́льевич Ду́гин(1962年1月7日-)是一名俄罗斯哲学家和政治理论家,国家布尔什维克党主要组织者。 他拥有NMSA的社会学