邻里成分分析

✍ dations ◷ 2025-06-11 09:38:40 #多变量统计,资料分析,统计模型

邻里成分分析(Neighborhood components analysis,NCA)是一种监督式学习的方法,根据一种给定的距离度量算法对样本数据进行度量,然后对多元变量数据进行分类。在功能上其和k近邻算法的目的相同,直接利用随即近邻的概念确定与测试样本临近的有标签的训练样本。

邻里成分分析是一种距离度量学习方法,其目的在于通过在训练集上学习得到一个线性空间转移矩阵,在新的转换空间中最大化平均留一(LOO)分类效果。该算法的关键是与空间转换矩阵相关的的一个正定矩阵A,该矩阵A可以通过定义A的一个可微的目标函数并利用迭代法(如共轭梯度法、共轭梯度下降法等)求解得到。该算法的好处之一是类别数K可以用一个函数f(确定标量常数)来定义。因此该算法可以用来解决模型选择的问题。

为了定义转换矩阵A,我们首先定义一个在新的转换矩阵中表示分类准确率的目标函数,并且尝试确定A*使得这个目标函数最大化。

A = argmax A f ( A ) {\displaystyle A^{*}={\mbox{argmax}}_{A}f(A)}

对一个单一的数据点进行类别预测时,我们需要考虑有一种给定的距离度量确定的K个最近邻居,根据 k {\displaystyle k} 个近邻的类别标签投票得到该样本的类别。这就是留一(Loo)分类算法。但是对所有数据集进行一个线性空间变换之后,新空间中的同一样本的最近邻居集可能跟原空间的最近邻居集有很大差别。特别的,为了平滑 A {\displaystyle A} 中元素的变化,我们可以使该样本的最近邻居集离散化,也就是说任意一个基于一个点的最近邻居集的目标函数f都是离散的,因此也是不连续的。

我们可以用一种受随机梯度下降法算法的启示得到的方法解决该问题。在新的转换空间中,我们并不是对每个样本点用留一分类方法求取 k {\displaystyle k} 个最近邻居,而是在新空间中考虑整个数据集作为随机最近邻居。我们用一个平方欧氏距离函数来定义在新的转换空间中的留一数据点与其他数据的距离,该函数定义如下:

p i j = { e | | A x i A x j | | 2 k e | | A x i A x k | | 2 , if j i 0 , if j = i {\displaystyle p_{ij}={\begin{cases}{\frac {e^{-||Ax_{i}-Ax_{j}||^{2}}}{\sum _{k}e^{-||Ax_{i}-Ax_{k}||^{2}}}},&{\mbox{if}}j\neq i\\0,&{\mbox{if}}j=i\end{cases}}}

输入点 i {\displaystyle i} 的分类准确率是与其相邻的最近邻居集 C i {\displaystyle C_{i}} 的分类准确率: p i = j n p i j {\displaystyle p_{i}=\sum _{j}^{n}p_{ij}\quad } 其中 p i j {\displaystyle p_{ij}} j {\displaystyle j} i {\displaystyle i} 的最近邻居的概率。定义用全局数据集作为随机最近邻的留一分类方法确定的目标函数如下:

f ( A ) = i j C i p i j = i p i {\displaystyle f(A)=\sum _{i}\sum _{j\in C_{i}}p_{ij}=\sum _{i}p_{i}}

由随机近邻理论知,与单一样本点 C i {\displaystyle C_{i}} 的同类别的在随机近邻域 C i {\displaystyle C_{i}} 样本点 j {\displaystyle j} 可以表示为:

P ( C l a s s ( X i ) = C l a s s ( X j ) ) = p i j {\displaystyle P(Class(X_{i})=Class(X_{j}))=p_{ij}} 。因此,单一样本点 i {\displaystyle i} 的预测类别是随机近邻集中其他样本类别的某种组合,其准确率与随机近邻域 C i {\displaystyle C_{i}} 中与 i {\displaystyle i} 同类别的 y {\displaystyle y} 所占的比例有关。因此,目标函数可以更好的选为:

f A = 2 A i j C i p i j ( x i j x i j T k p i k x i k x i k T ) {\displaystyle {\frac {\partial f}{\partial A}}=-2A\sum _{i}\sum _{j\in C_{i}}p_{ij}\left(x_{ij}x_{ij}^{T}-\sum _{k}p_{ik}x_{ik}x_{ik}^{T}\right)}

这里用到了连续梯度下降算法。

最大化函数f(.)相当于最小化预测的类分布和真正的类分布之间的差距,即使两者更接近。故目标函数和梯度可以重新写作:

g ( A ) = i log ( j C i p i j ) = i log ( p i ) {\displaystyle g(A)=\sum _{i}\log \left(\sum _{j\in C_{i}}p_{ij}\right)=\sum _{i}\log(p_{i})}

g A = 2 A i ( k p i k x i k x i k T j C i p i j x i j x i j T j C i p i j ) {\displaystyle {\frac {\partial g}{\partial A}}=2A\sum _{i}\left(\sum _{k}p_{ik}x_{ik}x_{ik}^{T}-{\frac {\sum _{j\in C_{i}}p_{ij}x_{ij}x_{ij}^{T}}{\sum _{j\in C_{i}}p_{ij}}}\right)}

在实际应用中运用此方法得到优化的 A {\displaystyle A} 与之前的方法得到的 A {\displaystyle A} 有相似的预测结果。

邻里成分分析是由Jacob Goldberger, Sam Roweis, Ruslan Salakhudinov和Geoff Hinton 等人在2004年在多伦多大学计算机系创建的。

相关

  • 草菇Volvaria volvaceaAgaricus volvaceusAmanita virgataVaginata virgata蕈伞圆锥状草菇(学名:Volvariella volvacea)是食用菌的一个种类,因为生长在稻草上而得名,又名兰花菇、美味
  • 人权俄罗斯联邦的公民权利和自由是在由1993年通过的《俄罗斯联邦宪法》的第2章中所授予的。 俄罗斯签署了《世界人权宣言》,也批准了其他一些国际公约,包括《公民权利和政治权利国
  • 圣伯纳犬圣伯纳犬(英语:St. Bernard)原产于瑞士,是当今世界上的一种超大型犬, 以雪地救护而闻名于世。圣伯纳犬是一种体型巨大,身躯强壮且头型稍大的狗儿,它的祖先原居住在海拔2500米高的阿
  • 超级胞超级胞(英语:Supercell)是雷暴的一种,拥有深厚、持续旋转上升气流(英语:Vertical draft)的中气旋(英语:Mesocyclone)。由于这个原因,这些雷暴有时被称为旋转雷暴(rotating thunderstorms
  • 王润身王润身(1924年-2007年9月27日),河北雄县人,中国电影表演艺术家,曾在电影《林海雪原》中扮演第一代杨子荣。2005年被中华人民共和国人事部、国家广播电影电视总局评为优秀电影艺术
  • 三色猫三色猫,又叫三毛猫、玳瑁猫,也有的人称呼它三花猫,指黑色、橘色与白色共存在身上的猫,亦称为玳瑁色。因决定黑色和橘色的基因是性联遗传位于X染色体上(白色基因在常染色体上),若是
  • 椿椿山椿椿山(日语:椿 椿山/つばき ちんざん ),本名弼,字笃甫,通称忠太、亮太,号椿山、琢华堂、休庵、四休庵、春松轩、碧荫山房、罗渓、琢华道人,是日本江户时代末期的文人画家。生于享和
  • 顶棋顶棋,是北京延庆等地的两人传统棋类游戏,当地又称老顶,山东齐河称为四棋儿,也有地方称四步钉。与下子的五道棋有同样吃法。在其他地方有类似游戏,有的增加吃法、有的不同棋盘。
  • 阿诺德·哈柏格阿诺德·卡尔·哈柏格(英语:Arnold Carl Harberger,1924年7月27日-),美国经济学家,以他名字命名的哈伯格三角在福利经济学中广泛使用。哈伯格在约翰·霍普金斯大学完成了经济学学士
  • 柴山柴山可以指: