信息瓶颈(英语:information bottleneck)是信息论中的一种方法,由纳夫塔利·泰斯比(英语:Naftali Tishby)、费尔南多·佩雷拉(Fernando C. Pereira)与威廉·比亚莱克(英语:William Bialek)于1999年提出。对于一随机变量
,假设已知其与观察变量 之间的联合概率分布 。此时,当需要概括(聚类) 时,可以通过信息瓶颈方法来分析如何最优化地平衡准确度与复杂度(数据压缩)。该方法的应用还包括分布聚类(distributional clustering)与降维等。此外,信息瓶颈也被用于分析深度学习的过程。信息瓶项方法中运用了互信息的概念。假设压缩后的随机变量为
,我们试图用 代替 来预测 。此时,可使用以下算法得到最优的 :其中
与 分别为 与 之间、以及 与 之间的互信息,可由 计算得到。 则表示拉格朗日乘数。