理解图的拉普拉斯矩阵

论坛 期权论坛 金融     
mv4ief   2022-6-26 08:45   20393   19
对机器学习数学知识的系统讲解可以阅读《机器学习的数学》,人民邮电出版社,雷明

  • 书的购买链接
理解图的拉普拉斯矩阵

SIGAI
2021.04.05

谱图理论是图论与线性代数相结合的产物,它通过分析图的某些矩阵的特征值与特征向量而研究图的性质。拉普拉斯矩阵是谱图理论中的核心与基本概念,在机器学习与深度学习中有重要的应用。包括但不仅限于:流形学习数据降维算法中的拉普拉斯特征映射、局部保持投影,无监督学习中的谱聚类算法,半监督学习中基于图的算法,以及目前炙手可热的图神经网络等。还有在图像处理、计算机图形学以及其他工程领域应用广泛的图切割问题。理解拉普拉斯矩阵的定义与性质是掌握这些算法的基础。在今天的文章中,我们将系统地介绍拉普拉斯矩阵的来龙去脉。
拉普拉斯算子

理解图的拉普拉斯矩阵,要从微积分中的拉普拉斯算子说起。多元函数


的拉普拉斯算子是所有自变量的非混合二阶偏导数之和



例如对于三元函数
,其拉普拉斯算子为


很多时候我们之只能近似计算导数值,称为数值微分。如果 的值接近于0,则在 点处
的导数可以用下面的公式近似计算


称为单侧差分公式。对于二阶导数,有


下面考虑多元函数的偏导数。对于二元函数 ,其拉普拉斯算子可以用下面的公式近似计算


如果上面的二元函数进行离散化,对自变量的一系列点处的函数值进行采样,得到下面一系列点处的函数值,构成一个矩阵


在这里 为水平方向, 为垂直方向。为了简化,假设 的增量即步长全为1,即


。则点 处的拉普拉斯算子可以用下面的公式近似计算


这是一个非常优美的结果,它就是 的4个相邻点处的函数值之和与 点处的函数值乘以4后的差值。如下图所示


基于这种表示,拉普拉斯算子的计算公式可以写成



其中 邻居节点的集合。
图的邻接矩阵与加权度矩阵

图是一种几何结构,对它的研究起源于古老的哥尼斯堡七桥问题。一个图 由顶点和边构成,通常将顶点的集合记为 ,边的集合记为 。边由其连接的起点和终点表示。下面是一个典型的图


图的边可以是有方向的,也可以是没有方向的,前者称为有向图,后者称为无向图。邻接矩阵是图的矩阵表示,借助它可以方便地存储图的结构,用线性代数的方法研究图的问题。如果一个图有 个顶点,其邻接矩阵 的矩阵,矩阵元素 表示边 的权重。如果两个顶点之间没有边连接,则在邻接矩阵中对应的元素为0。对与上面的图,它的邻接矩阵为


无向图的邻接矩阵为对称矩阵。
对于无向图,顶点的加权度是与该顶点相关的所有边的权重之和。如果无向图的邻接矩阵为 ,则顶点 的加权度为邻接矩阵第 行元素之和


加权度矩阵 是一个对角矩阵,其主对角线元素为每个顶点的加权度,其他位置的元素为0


对于上面的无向图,它的加权度矩阵为


拉普拉斯矩阵

在前面二元函数的例子种,一个点只与上下左右4个采样点相邻。图的顶点的连接关系可以是任意的,下面将拉普拉斯算子推广到图。如果将图的顶点处的值看作是函数值,则在顶点 处的拉普拉斯算子为


其中 是顶点 的所有邻居顶点的集合。这里我们调换了 的位置,和之前的拉普拉斯算子相比,相当于多了一个负号。由于图的边可以带有权重,我们可以在上面的计算公式中加上权重


这以推广如下图所示,图中红色的顶点是 ,蓝色的顶点是它的邻居顶点,灰色的顶点是其他顶点。


如果 不是 的邻居,则 。因此上面的式子也可以写成


这里的 就是顶点 的加权度, 邻接矩阵的第 行, 是所有顶点的值构成的里列向量, 是二者的内积。对于图的所有顶点,有


上面的结论启发我们,可以在邻接矩阵和加权度矩阵的基础上定义拉普拉斯矩阵。假设无向图 个顶点,邻接矩阵为 ,加权度矩阵为 。拉普拉斯矩阵定义为加权度矩阵与邻接矩阵之差


由于
都是对称矩阵,因此拉普拉斯矩阵也是对称矩阵。根据前面的介绍,拉普拉斯矩阵实际代表了图的二阶导数。
以上面的图为例,它的拉普拉斯矩阵为



显然拉普拉斯矩阵每一行元素之和都为0。下面介绍拉普拉斯矩阵的若干重要性质。
1.对任意向量





2.拉普拉斯矩阵是对称半正定矩阵;
3.拉普拉斯矩阵的最小特征值为0,其对应的特征向量为常向量 ,即所有分量为1;
4.拉普拉斯矩阵有 个非负实数特征值,并且满足


下面进行证明。根据加权度 的定义,有


因此结论(1)成立。根据结论(1),对任意非0向量 ,有


因此拉普拉斯矩阵是半正定的,结论2成立。由于


将行列式的第2~n列依次加到第1列,第1列的值全为0


因此行列式丨 丨值为0,0是 的特征值。如果 ,则有


因此 是特征值0的特征向量,由于拉普拉斯矩阵半正定,其特征值非负,结论(3)成立。根据结论(2)和(3)可以得到结论(4)。
假设 是一个有非负权重的无向图,其拉普拉斯矩阵 的特征值0的重数 等于图的联通分量的个数


。特征值0的特征空间由这些联通分量所对应的特征向量


所张成。
下面进行证明。先考虑 的情况,图是联通的。假设 是特征值0的一个特征向量,根据特征值的定义有


这是因为 。因为图是联通的,因此所有的 ,要让上面的值为0,必定有 。这意味着向量 的任意元素都相等,因此所有特征向量都是 的倍数,结论成立。
接下来考虑有 个联通分量的情况。不失一般性,假设顶点按照其所属的联通分量排序,这种情况下,邻接矩阵是分块矩阵,同样地,拉普拉斯矩阵也是这样的分块矩阵


显然每个子矩阵 自身也是一个拉普拉斯矩阵,对应于这个联通分量。对于这些子矩阵,上面的结论也是成立的,因此 的谱由 的谱相并构成, 的特征值0对应的特征向量是 的特征向量将其余位置填充0扩充形成的。具体的,特征向量中第 个联通分量的顶点所对应的分量为1,其余的全为0,为如下形式


由于每个 都是一个联通分量的拉普拉斯矩阵,因此其特征向量的重数为1,对应于特征值0。而 中与之对应的特征向量在第 个联通分量处的值为常数,其他位置为0。因此矩阵 的0特征值对应的线性无关的特征向量的个数与联通分量的个数相等,并且特征向量是这些联通分量的指示向量。
下面举例说明。对于下面的图


它有两个联通子图。其邻接矩阵为


其加权度矩阵为


拉普拉斯矩阵为


它由如下两个子矩阵构成


每个子矩阵对应于图的一个联通分量。0是每个子矩阵的1重特征值,由于有两个联通分量,因此0是整个图的拉普拉斯矩阵的2重特征值。两个线性无关的特征向量为


归一化拉普拉斯矩阵

对前面定义的拉普拉斯矩阵进行归一化从而得到归一化的拉普拉斯矩阵。通常有两种形式的归一化。
第一种称为对称归一化,定义为


在这里 的所有元素计算正平方根得到的矩阵。位置
的元素为将未归一化拉普拉斯矩阵对应位置处的元素 除以


后形成的,主对角线上的元素为1,


由于 都是对称矩阵,因此 也是对称矩阵。如果图是联通的,则 都是可逆的对角矩阵,其逆矩阵分别为其主对角线元素的逆。
第二种称为随机漫步归一化,定义为


其位置 的元素为将未归一化拉普拉斯矩阵对应位置处的元素 除以 后形成的,主对角线元素也为1


下面介绍这两种矩阵的若干重要性质。
1.对任意向量






2. 是矩阵 的特征值, 是特征向量,当且仅当 的特征值且其特征向量为


3. 是矩阵 的特征值, 是对应的特征向量,当且仅当 是下面广义特征值问题的解


4. 0是矩阵 的特征值,其对应的特征向量为常向量 ,即所有分量为1。0是矩阵 的特征值,其对应的特征向量为
5.矩阵 是半正定矩阵,有 个非负实数特征值,并且满足


和未归一化的拉普拉斯矩阵类似,有下面的重要结论:假设 是一个有非负权重的无向图,其归一化拉普拉斯矩阵 的特征值0的重数 等于图的联通分量的个数 。对于矩阵 ,特征值0的特征空间由这些联通分量所对应的向量 所张成。 的定义与未归一化拉普拉斯矩阵0特征值的特征向量相同。对于矩阵 ,特征值0的特征空间由这些联通分量所对应的向量


所张成。证明方法和未归一化拉普拉斯矩阵类似,感兴趣的读者可以阅读《机器学的数学》,人民邮电出版社,雷明著。
应人民邮电出版社的邀请,明天晚上8点钟(2021.4.6)将由《机器学的数学》的作者作“概率论在机器学习中的应用”的直播。为你讲述:
为什么在机器学习中需要概率论
机器学习中的概率模型概述
有监督学习中的概率模型,包括贝叶斯分类器,logistic回归,softmax回归,机器翻译问题
无监督学习中的概率模型,包括高斯混合模型,t-SNE数据降维算法,隐马尔可夫模型,概率图模型
强化学习中的概率模型,包括马尔可夫决策过程
数据生成模型中的概率模型,包括基本的随机数生成算法,生成对抗网络,变分自动编码器
我们将从数学的角度为你讲述这些方法的原理,剖析它们的本质。下面是观看直播的信息
分享到 :
0 人收藏

19 个回复

倒序浏览
2#
gs_bs  1级新秀 | 2022-6-26 08:45:46 发帖IP地址来自 黑龙江大庆
太牛了
3#
吴宇  管理员  伦敦金丝雀码头交易员 | 2022-6-26 08:46:24 发帖IP地址来自 北京
写的非常好,受益匪浅。以前只知道谱聚类搞个L =D-A,并不知道为什么这么搞。也不知道为啥好好的在L左边加个向量f再在L右边加个向量f
4#
zhwi  1级新秀 | 2022-6-26 08:46:43 发帖IP地址来自 北京
牛皮 通俗易懂
5#
ml1io  1级新秀 | 2022-6-26 08:47:06 发帖IP地址来自 中国
左右两边加f是为了说明L的半正定性,类似于线性代数的二次型从定义法证明矩阵的半正定性
6#
89k9t  1级新秀 | 2022-6-26 08:47:36 发帖IP地址来自 中国
终于搞明白了在图上用拉普拉斯的原因了
7#
v0mj83  1级新秀 | 2022-6-26 08:48:03 发帖IP地址来自 中国
请问例子里面说“0是整个图的拉普拉斯矩阵的2重特征值”,不应该是三重吗,因为0对应的特征向量还有一个(1,1,...1)^T[发呆]
8#
kqpio  1级新秀 | 2022-6-26 08:48:12 发帖IP地址来自 湖北
特征向量要线性无关啊
9#
6_a_y  1级新秀 | 2022-6-26 08:48:34 发帖IP地址来自 中国
写得非常好呀
10#
期权先生  4级常客 | 2022-6-26 08:49:28 发帖IP地址来自 北京
感谢
11#
5d41  1级新秀 | 2022-6-26 08:49:39 发帖IP地址来自 北京
你怎么能写的这么好呢!
12#
4x0dm  1级新秀 | 2022-6-26 08:50:23 发帖IP地址来自 北京
想问下,好像只是做到近似归一化?我实验了一下发现加起来并不等于1
13#
s2j_x  1级新秀 | 2022-6-26 08:50:44 发帖IP地址来自 北京海淀
请教一个问题(如果博主还能看到的话):L矩阵0特征值个数等于联通域数量那里,矩阵在经过行列变换后,特征值、特征向量无法保证相同吧?倘若L矩阵不是按那种对角形式排序的,那怎么证明它的0特征值个数等于联通域个数呢?
14#
pcs6yl  1级新秀 | 2022-6-26 08:50:53 发帖IP地址来自 湖南长沙
思路真的清楚,感谢楼主
15#
bmfyd1  1级新秀 | 2022-6-26 08:51:05 发帖IP地址来自 北京丰台
啥原因啊
16#
xmaj  1级新秀 | 2022-6-26 08:51:21 发帖IP地址来自 安徽合肥
连通可以说明wij一定大于0吗?比如i和j不是邻接的,也可以是0吧
17#
hewing  1级新秀 | 2022-6-26 08:52:18 发帖IP地址来自 重庆
文中“拉普拉斯矩阵的最小特征值为0,其对应的特征向量为常向量”,特征值是0了,对应的特征向量难道不是任意实值向量吗?因为D-W的行列式已经是0了。
18#
h_axo  1级新秀 | 2022-6-26 08:52:31 发帖IP地址来自 中国
有向图的拉普拉斯矩阵怎么弄呢
19#
吴宇  管理员  伦敦金丝雀码头交易员 | 2022-6-26 08:53:15 发帖IP地址来自 湖北
拉普拉斯矩阵的若干重要性质中,第一条的证明,即fT L f = fT D f - fT W f,第三行和第四行的推导中,为什么difi^2 = djfj^2?没看明白。
20#
90l0m  1级新秀 | 2022-6-26 08:53:40 发帖IP地址来自 中国
就是换个符号啊,类似于微积分,f(x)dx=f(t)dt,把变元换个名罢了,实际值没变
您需要登录后才可以回帖 登录 | 立即注册

本版积分规则

积分:
帖子:
精华:
期权论坛 期权论坛
发布
内容

下载期权论坛手机APP