互信息

✍ dations ◷ 2025-05-18 01:22:11 #信息论,信息学熵

在概率论和信息论中,两个随机变量的互信息(mutual Information,简称MI)或转移信息(transinformation)是变量间相互依赖性的量度。不同于相关系数,互信息并不局限于实值随机变量,它更加一般且决定着联合分布 p(X,Y) 和分解的边缘分布的乘积 p(X)p(Y) 的相似程度。互信息是点间互信息(英语:Pointwise mutual information)(PMI)的期望值。互信息最常用的单位是bit。

一般地,两个离散随机变量 和 的互信息可以定义为:

其中 (, ) 是 和 的联合概率分布函数,而 p ( x ) {\displaystyle p(x)} 和 的边缘概率分布函数。

在连续随机变量的情形下,求和被替换成了二重定积分:

其中 (, ) 当前是 和 的联合概率函数,而 p ( x ) {\displaystyle p(x)} 和 的边缘概率密度函数。

如果对数以 2 为基底,互信息的单位是bit。

直观上,互信息度量 和 共享的信息:它度量知道这两个变量其中一个,对另一个不确定度减少的程度。例如,如果 和 相互独立,则知道 不对 提供任何信息,反之亦然,所以它们的互信息为零。在另一个极端,如果 是 的一个确定性函数,且 也是 的一个确定性函数,那么传递的所有信息被 和 共享:知道 决定 的值,反之亦然。因此,在此情形互信息与 (或 )单独包含的不确定度相同,称作 (或 )的熵。而且,这个互信息与 的熵和 的熵相同。(这种情形的一个非常特殊的情况是当 和 为相同随机变量时。)

互信息是 和 的联合分布相对于假定 和 独立情况下的联合分布之间的内在依赖性。于是互信息以下面方式度量依赖性:(; ) = 0 当且仅当 和 为独立随机变量。从一个方向很容易看出:当 和 独立时,(,) = () (),因此:

此外,互信息是非负的(即 I ( X ; Y ) 0 {\displaystyle I(X;Y)\geq 0} (|) 和 (|) 是条件熵,而 (,) 是 和 的联合熵。注意到这组关系和并集、差集和交集的关系类似,于是用Venn图表示。

在互信息定义的基础上使用琴生不等式,我们可以证明 (;) 是非负的,因此   H ( X ) H ( X | Y ) {\displaystyle \ H(X)\geq H(X|Y)} () 看作一个随机变量于不确定度的量度,那么 (|) 就是"在已知 事件后事件会发生"的不确定度。于是第一个等式的右边就可以读作“将"Y事件的不确定度",减去 --- "在基于事件后事件因此发生的不确定度"”。

这证实了互信息的直观意义为: "因X而有Y事件"的熵( 基于已知随机变量的不确定性) 在"Y事件"的熵之中具有多少影响地位( "Y事件所具有的不确定性" 其中包含了多少 "Y|X事件所具有的不确性" ),意即"Y具有的不确定性"有多少程度是起因于X事件;

    

所以具体的解释就是: 互信息越小,两个来自不同事件空间的随机变量彼此之间的关系性越低; 互信息越高,关系性则越高 。


注意到离散情形 (|) = 0,于是 () = (;)。因此 (;) ≥ (;),我们可以制定”一个变量至少包含其他任何变量可以提供的与它有关的信息“的基本原理。

互信息也可以表示为两个随机变量的边缘分布 和 的乘积 () × () 相对于随机变量的联合熵 (,) 的相对熵:

此外,令 (|) = (, ) / ()。则

注意到,这里相对熵涉及到仅对随机变量 积分,表达式 D K L ( p ( x | y ) p ( x ) ) {\displaystyle D_{\mathrm {KL} }(p(x|y)\|p(x))} 为变量。于是互信息也可以理解为相对熵 的单变量分布 () 相对于给定 时 的条件分布 (|) :分布 (|) 和 () 之间的平均差异越大,信息增益越大。

对连续型随机变量量化的定义如下:

f ( x i ) Δ = i Δ ( i + 1 ) Δ f ( x ) d x = p i {\displaystyle f(x_{i})\Delta =\int _{i\Delta }^{(i+1)\Delta }f(x)dx=p_{i}}

量化后的随机变量 X Δ {\displaystyle X^{\Delta }} :

X Δ = x i , i Δ X < ( i + 1 ) Δ {\displaystyle X^{\Delta }=x_{i},i\Delta \leq X<(i+1)\Delta }

则,

I ( X Δ ; Y Δ ) = H ( X Δ ) H ( X Δ | Y Δ ) {\displaystyle I(X^{\Delta };Y^{\Delta })=H(X^{\Delta })-H(X^{\Delta }|Y^{\Delta })}

h ( X ) l o g Δ ( h ( X | Y ) l o g Δ ) {\displaystyle \approx h(X)-log{\Delta }-(h(X|Y)-log{\Delta })}

= I ( X ; Y ) {\displaystyle =I(X;Y)}

广义而言,我们可以将互信息定义在有限多个连续随机变量值域的划分。

χ {\displaystyle \chi } 为连续型随机变量的值域, P i P {\displaystyle P_{i}\in P} , 其中 P {\displaystyle P} χ {\displaystyle \chi } 划分所构成的集合,意即 i P i = χ {\displaystyle \cup _{i}P_{i}=\chi }

P {\displaystyle P} 量化连续型随机变量 X {\displaystyle X} 后,所得结果为离散型随机变量,

P r ( P = i ) = P i d F ( x ) {\displaystyle Pr(_{P}=i)=\int _{P_{i}}dF(x)}

对于两连续型随机变量X、Y,其划分分别为P、Q,则其互信息可表示为:

I ( X ; Y ) = s u p P , Q I ( P ; Q ) {\displaystyle I(X;Y)={\underset {P,Q}{sup}}I(_{P};_{Q})}


相关

  • 原子分子与光物理学原子分子与光物理学是研究物质之间,或光与物质的相互作用, 其研究尺度约一至数个原子,能量尺度约几个电子伏特。 这三个物理学的领域研究通常是紧密关联的。 原子分子与光物理
  • 中央沟中央沟,亦称中央裂,是大脑最为显著的脑沟之一。中央沟分隔大脑两个主要的“叶”。其前部是额叶,后部是顶叶。与中央沟相邻的两个脑回分别为中央前回和中央后回。其中中央前回包
  • 共和党革命共和党革命,是指美国的共和党在1994年中期选举中,在参议院多数党领袖纽特·金瑞契的领导的共和党革命下,成功重夺美国国会众议院及参议院控制权,终结民主党对国会长达40年的控制
  • 阿旖陀石窟坐标:20°33′12″N 75°42′00″E / 20.55333°N 75.70000°E / 20.55333; 75.70000阿旃陀石窟(अजिंठा-वेरूळची लेणी;Ajinṭhā-verūḷacī leṇī)是一个位
  • 国际单项体育联合会总会SportAccord国际单项体育联合会总会(Global Association of International Sports Federations,GAISF;原名为SportAccord)是一个国际性运动组织,用以沟通协调各种不同的国际运动总会。1967年
  • 瓦休戈瓦休戈(英语:Washougal、发音: /wɑːˈʃuːɡəl/)是美国华盛顿州克拉克县的一个城市。2010年美国人口普查时人口为161,791人。巴特尔格朗德 | 卡默斯 | 拉申特 | 里奇菲尔
  • 永泰永泰(765年正月—766年十一月)是唐代宗的年号,共计2年。吐鲁番出土有《唐永泰三年后麦粟帐》,可见当时因吐蕃骚扰阻碍交通,与中原交通不变的西州仍用永泰年号至少直至“永泰三年
  • 双曲函数在数学中,双曲函数是一类与常见的三角函数(也叫圆函数)类似的函数。最基本的双曲函数是双曲正弦函数 sinh {\displaystyle \sinh } 轴对称
  • 成为约翰马尔科维奇《成为约翰马尔科维奇》(英语:,又译《傀儡人生》、《成为约翰马尔科维奇》)是一部1999年的电影。作者是查理·考夫曼,导演是史碧·庄斯。此片由约翰·库萨克、卡梅隆·迪亚兹和约
  • 命运之爱命运之爱(Amor fati)源自拉丁语,指一种人生态度:不管是痛苦和损失还是快乐与收获,人生中发生的一切事情都是好的。怀有命运之爱的人无条件地接受人生中的一切事件和处境。命运之