互信息

✍ dations ◷ 2025-04-26 12:32:55 #信息论,信息学熵

在概率论和信息论中,两个随机变量的互信息(mutual Information,简称MI)或转移信息(transinformation)是变量间相互依赖性的量度。不同于相关系数,互信息并不局限于实值随机变量,它更加一般且决定着联合分布 p(X,Y) 和分解的边缘分布的乘积 p(X)p(Y) 的相似程度。互信息是点间互信息(英语:Pointwise mutual information)(PMI)的期望值。互信息最常用的单位是bit。

一般地,两个离散随机变量 和 的互信息可以定义为:

其中 (, ) 是 和 的联合概率分布函数,而 p ( x ) {\displaystyle p(x)} 和 的边缘概率分布函数。

在连续随机变量的情形下,求和被替换成了二重定积分:

其中 (, ) 当前是 和 的联合概率函数,而 p ( x ) {\displaystyle p(x)} 和 的边缘概率密度函数。

如果对数以 2 为基底,互信息的单位是bit。

直观上,互信息度量 和 共享的信息:它度量知道这两个变量其中一个,对另一个不确定度减少的程度。例如,如果 和 相互独立,则知道 不对 提供任何信息,反之亦然,所以它们的互信息为零。在另一个极端,如果 是 的一个确定性函数,且 也是 的一个确定性函数,那么传递的所有信息被 和 共享:知道 决定 的值,反之亦然。因此,在此情形互信息与 (或 )单独包含的不确定度相同,称作 (或 )的熵。而且,这个互信息与 的熵和 的熵相同。(这种情形的一个非常特殊的情况是当 和 为相同随机变量时。)

互信息是 和 的联合分布相对于假定 和 独立情况下的联合分布之间的内在依赖性。于是互信息以下面方式度量依赖性:(; ) = 0 当且仅当 和 为独立随机变量。从一个方向很容易看出:当 和 独立时,(,) = () (),因此:

此外,互信息是非负的(即 I ( X ; Y ) 0 {\displaystyle I(X;Y)\geq 0} (|) 和 (|) 是条件熵,而 (,) 是 和 的联合熵。注意到这组关系和并集、差集和交集的关系类似,于是用Venn图表示。

在互信息定义的基础上使用琴生不等式,我们可以证明 (;) 是非负的,因此   H ( X ) H ( X | Y ) {\displaystyle \ H(X)\geq H(X|Y)} () 看作一个随机变量于不确定度的量度,那么 (|) 就是"在已知 事件后事件会发生"的不确定度。于是第一个等式的右边就可以读作“将"Y事件的不确定度",减去 --- "在基于事件后事件因此发生的不确定度"”。

这证实了互信息的直观意义为: "因X而有Y事件"的熵( 基于已知随机变量的不确定性) 在"Y事件"的熵之中具有多少影响地位( "Y事件所具有的不确定性" 其中包含了多少 "Y|X事件所具有的不确性" ),意即"Y具有的不确定性"有多少程度是起因于X事件;

    

所以具体的解释就是: 互信息越小,两个来自不同事件空间的随机变量彼此之间的关系性越低; 互信息越高,关系性则越高 。


注意到离散情形 (|) = 0,于是 () = (;)。因此 (;) ≥ (;),我们可以制定”一个变量至少包含其他任何变量可以提供的与它有关的信息“的基本原理。

互信息也可以表示为两个随机变量的边缘分布 和 的乘积 () × () 相对于随机变量的联合熵 (,) 的相对熵:

此外,令 (|) = (, ) / ()。则

注意到,这里相对熵涉及到仅对随机变量 积分,表达式 D K L ( p ( x | y ) p ( x ) ) {\displaystyle D_{\mathrm {KL} }(p(x|y)\|p(x))} 为变量。于是互信息也可以理解为相对熵 的单变量分布 () 相对于给定 时 的条件分布 (|) :分布 (|) 和 () 之间的平均差异越大,信息增益越大。

对连续型随机变量量化的定义如下:

f ( x i ) Δ = i Δ ( i + 1 ) Δ f ( x ) d x = p i {\displaystyle f(x_{i})\Delta =\int _{i\Delta }^{(i+1)\Delta }f(x)dx=p_{i}}

量化后的随机变量 X Δ {\displaystyle X^{\Delta }} :

X Δ = x i , i Δ X < ( i + 1 ) Δ {\displaystyle X^{\Delta }=x_{i},i\Delta \leq X<(i+1)\Delta }

则,

I ( X Δ ; Y Δ ) = H ( X Δ ) H ( X Δ | Y Δ ) {\displaystyle I(X^{\Delta };Y^{\Delta })=H(X^{\Delta })-H(X^{\Delta }|Y^{\Delta })}

h ( X ) l o g Δ ( h ( X | Y ) l o g Δ ) {\displaystyle \approx h(X)-log{\Delta }-(h(X|Y)-log{\Delta })}

= I ( X ; Y ) {\displaystyle =I(X;Y)}

广义而言,我们可以将互信息定义在有限多个连续随机变量值域的划分。

χ {\displaystyle \chi } 为连续型随机变量的值域, P i P {\displaystyle P_{i}\in P} , 其中 P {\displaystyle P} χ {\displaystyle \chi } 划分所构成的集合,意即 i P i = χ {\displaystyle \cup _{i}P_{i}=\chi }

P {\displaystyle P} 量化连续型随机变量 X {\displaystyle X} 后,所得结果为离散型随机变量,

P r ( P = i ) = P i d F ( x ) {\displaystyle Pr(_{P}=i)=\int _{P_{i}}dF(x)}

对于两连续型随机变量X、Y,其划分分别为P、Q,则其互信息可表示为:

I ( X ; Y ) = s u p P , Q I ( P ; Q ) {\displaystyle I(X;Y)={\underset {P,Q}{sup}}I(_{P};_{Q})}


相关

  • 植物配种植物配种(英语:Plant breeding)是指透过改变植物的特征而产生所期望的特性的艺术和科学。植物配种现使用于为人类和动物改善产品中营养的品质。
  • 泰累尔马克斯·泰累尔(英语:Max Theiler,1899年1月30日-1972年8月11日),又译马克斯·蒂勒,南非微生物学家。1951年由于发现黄热病疫苗而获得了诺贝尔生理学或医学奖。1899年1月30日,泰累尔
  • 蜡烛蜡烛,是由蜡或其他燃料所制成,中有烛芯,点火之后可以持续燃烧的用品。蜡烛一般用于照明,但在电力革命以后逐渐被电灯取代,现在蜡烛多是停电时的备用照明用品。节日或其他特殊日子
  • 宣战宣战是指一个国家宣告该国与其他(可多于一个)国家处于战争状态。文艺复兴时,已有国家作出正式的宣战声明,自此,民主国家已接受宣战作为一个外交手段。在国际法中,宣战声明代表该等
  • 安娜·海宁·贝茨安娜·海宁·贝茨(英语:Anna Haining Bates,1846年8月6日-1888年8月5日),原姓斯旺(英语:Swan),加拿大女性,因身高达7英尺11英寸(2.41米)而著名。父母为苏格兰移民,共有13个孩子,安娜排行第
  • 纳米比亚2019冠状病毒病纳米比亚疫情,介绍在2019新型冠状病毒疫情中,在纳米比亚发生的情况。2020年3月14日,纳米比亚宣布首次确诊两例新冠肺炎病例。患者为一对情侣,来自西班牙,11日进入
  • 珠玑巷南雄珠玑巷,原名敬宗巷,位于中国广东省南雄市北9公里,自唐朝丞相张九龄开凿梅关驿道之后,成为梅关驿道上的一个商业重镇。它是古代中原地区的人民经商或躲避战乱迁徙岭南地区的
  • 捻乱捻军(1853年-1868年),清朝官方称之为捻匪或捻贼,也称捻乱,是活跃在长江以北安徽北部及江苏、山东、河南三省部分地区的反清农民军,兴起后一度响应同时期的太平军。捻军重要人物为沃
  • 科隆香水古龙水(旧译告郎水;法语:Eau de Cologne,德语:Kölnisch Wasser),是含有2-3%精油含量的清淡香水。此香水最先在1709年由意大利人,吉欧凡尼·马利亚·法利纳(Giovanni Maria Farina),在
  • 2的幂2的幂是指符合 2 n {\displaystyle 2^{n}} 型式,而 n