如何理解主成分分析中的协方差矩阵的特征值的几何含义?

论坛 期权论坛 期权     
世戒悲   2018-10-3 22:05   121149   4
PCA中的协方差矩阵的特征值对应各主成分的方差大小,而我所理解的特征值特征向量是线性变换的线性不变量,感觉二者联系不上,看证明也是一知半解,不知是否可以用几何或者通俗的方式帮助理解?
补充:或者如何理解这句话:样本的协方差矩阵的特征向量就是样本分布变换最剧烈的那些方向。
这句话感觉是对的,因为PCA主成分是这么选取的,但是并不理解这句话是怎么得到的。
分享到 :
0 人收藏

4 个回复

倒序浏览
2#
王赟 Maigo  5级知名 | 2018-10-3 22:05:58 发帖IP地址来自
把协方差阵直接理解成一个变换矩阵比较困难。
但是,协方差阵
作为对称正定阵,可以分解成
,其中
为正交矩阵(即
),
为对角阵,且对角元均为正。

,容易看出
也是对称正定阵,且
,即
可以看作
的“平方根”。
这里的矩阵
就有比较明确的变换意义了。

用给定的数据可以拟合出一个多维正态分布
,其概率密度函数为:


为常数,具体值就省略了)


代进去,变成

跟标准正态分布的概率密度函数对比,可以发现
服从标准正态分布。
也就是说,给定数据中的任意一个点
,可由服从标准正态分布的
经变换
得来。

这样就可以知道,
的分布以
的各个特征向量为轴,各个特征值的绝对值为轴向的标准差。

的特征向量与
相同,特征值是
的特征值的平方,故
的特征向量也是
的分布的轴,特征值是轴向的方差。
3#
史博  2级吧友 | 2018-10-3 22:05:59 发帖IP地址来自
千万不要小看PCA, 很多人隐约知道求解最大特征值,其实并不理解PCA是对什么东西求解特征值和特征向量。  也不理解为什么是求解特征值和特征向量。 要理解到Hinton对PCA的认知,需要跨过4个境界,而上面仅仅是第1个境界的问题。


为什么要理解PCA?


其实深度学习在成为深度学习以前,主要是特征表达学习, 而特征表达学习追溯到始祖象阶段,主要是无监督特征表达PCA和有监督特征表达LDA。  对了这里LDA不是主题模型的LDA,是统计鼻祖Fisher搞的linear discriminant analysis(参考“Lasso简史”)。 而Hinton在这方面的造诣惊人, 这也是为什么他和学生一起能搞出牛牛的 t-Distributed Stochastic Neighbor Embedding (t-SNE) 。

至于t-SNE为啥牛, 这里给两个对比图片, 然后我们再回到PCA,以后有机会再扩展!
t-SNE vs PCA:  可以看到线性特征表达的局限性

t-SNE 优于 已有非线性特征表达 Isomap, LLE 和 Sammon mapping

依然还记得2004年左右Isomap横空出世的惊奇, 再看t-SNE的诞生,真是膜拜! 也正是Hinton对PCA能理解到他的境界, 他才能发明t-SNE。


PCA理解第一层境界:最大方差投影
正如PCA的名字一样, 你要找到主成分所在方向, 那么这个主成分所在方向是如何来的呢?

其实是希望你找到一个垂直的新的坐标系, 然后投影过去, 这里有两个问题。 第一问题: 找这个坐标系的标准或者目标是什么?  第二个问题, 为什么要垂直的, 如果不是垂直的呢?   
如果你能理解第一个问题, 那么你就知道为什么PCA主成分是特征值和特征向量了。  如果你能理解第二个问题, 那么你就知道PCA和ICA到底有什么区别了。

对于第一个问题: 其实是要求解方差最小或者最大。 按照这个目标, 你代入拉格朗日求最值, 你可以解出来, 主成分方向,刚好是S的特征向量和特征值! 是不是很神奇?  伟大的拉格朗日(参考 "一步一步走向锥规划 - QP" "一挑三 FJ vs KKT ")

现在回答了,希望你理解了, PCA是对什么东西求解特征值和特征向量。 也理解为什么是求解的结果就是特征值和特征向量吧!
这仅仅是PCA的本意! 我们也经常看到PCA用在图像处理里面, 希望用最早的主成分重建图像:

这是怎么做到的呢?
PCA理解第二层境界:最小重建误差
什么是重建, 那么就是找个新的基坐标, 然后减少一维或者多维自由度。  然后重建整个数据。 好比你找到一个新的视角去看这个问题, 但是希望自由度小一维或者几维。

那么目标就是要最小重建误差,同样我们可以根据最小重建误差推导出类似的目标形式。

虽然在第二层境界里面, 也可以直观的看成忽略了最小特征值对应的特征向量所在的维度。  但是你能体会到和第一层境界的差别么? 一个是找主成分, 一个是维度缩减。  所以在这个层次上,才是把PCA看成降维工具的最佳视角。


PCA理解第三层境界:高斯先验误差
在第二层的基础上, 如果引入最小二乘法和带高斯先验的最大似然估计的等价性。(参考"一步一步走向锥规划 - LS" “最小二乘法的4种求解” ) 那么就到了理解的第三层境界了。

所以, 重最小重建误差, 我们知道求解最小二乘法, 从最小二乘法, 我们可以得到高斯先验误差。  

有了高斯先验误差的认识,我们对PCA的理解, 进入了概率分布的层次了。 而正是基于这个概率分布层次的理解, 才能走到Hinton的理解境界。


PCA理解第四层境界(Hinton境界):线性流形对齐


如果我们把高斯先验的认识, 到到数据联合分布, 但是如果把数据概率值看成是空间。  那么我们可以直接到达一个新的空间认知。

这就是“Deep Learning”书里面写的, 烙饼空间(Pancake), 而在烙饼空间里面找一个线性流行,就是PCA要干的事情。 我们看到目标函数形式和最小重建误差完全一致。  但是认知完全不在一个层次了。

小结


这里罗列理解PCA的4种境界,试图通过解释Hinton如何理解PCA的, 来强调PCA的重要程度。  尤其崇拜Hinton对简单问题的高深认知。不仅仅是PCA,尤其是他对EM算法的再认识, 诞生了VBEM算法, 让VB算法完全从物理界过渡到了机器学习界(参考 “变の贝叶斯”)。 有机会可以看我对EM算法的回答,理解EM算法的9种境界。
4#
世戒悲  1级新秀 | 2018-10-3 22:06:00 发帖IP地址来自
谢谢回答。
这几天翻了很多资料,理解的都不好,所以提问求助了一下。刚刚又看了一些资料,觉得这个讲解的比较清楚,有种豁然开朗的感觉,分享一下
透彻讲解PCA_百度文库
5#
PhD-Sky  3级会员 | 2018-10-3 22:06:01 发帖IP地址来自
您需要登录后才可以回帖 登录 | 立即注册

本版积分规则

积分:
帖子:
精华:
期权论坛 期权论坛
发布
内容

下载期权论坛手机APP