图神经网络(一)图信号处理与图卷积神经网络(2)图信号与图的拉普拉斯矩阵
圖神經網絡(一)圖信號處理與圖卷積神經網絡(2)圖信號與圖的拉普拉斯矩陣
?給定圖G=(V,E)G=(V,E)G=(V,E),V表示圖中的節點集合,假設其長度為NNN,圖信號是一種描述V→RV→RV→R的映射,表示成向量的形式:x=[x1,x2,…,xN]Tx=[x_1,x_2,…,x_N]^{\rm T}x=[x1?,x2?,…,xN?]T,其中xix_ixi?表示的是節點viv_ivi?上的信號強度,如圖1-1所示,其中豎線長度表示節點上信號值的大小:
圖1-1 圖信號示例
?與離散時間信號不同,圖信號是定義在節點上的信號,而節點之間有自己固有的關聯結構。在研究圖信號性質的時候,處理要考慮圖信號的強度之外,還需要考慮圖的拓撲結構,不同圖上同一強度的信號,具有截然不同的性質。
?拉普拉斯矩陣(Laplacian Matrix)是用來研究圖的結構性質的核心對象,拉普拉斯矩陣的定義如下:L=D?AL=D-AL=D?A,DDD是一個對角矩陣,Dii=∑jAijD_{ii}=∑_jA_{ij}Dii?=∑j?Aij?表示的是節點viv_ivi?的度。拉普拉斯矩陣的元素級別定義如下:
Lij={deg?(vi)ifI=j?1ifeij∈E0otherwiseL_{ij}=\begin{cases} deg?(v_i) &\text{if}\quad I=j\\ -1 &\text{if}\quad e_{ij}\in E\\ 0 &\text{otherwise} \end{cases} Lij?=??????deg?(vi?)?10?ifI=jifeij?∈Eotherwise?
?拉普拉斯矩陣還有一種正則化的形式(symmetric normalized laplacian)Lsym=D?1/2LD?1/2L_{\text{sym}}=D^{-1/2} LD^{-1/2}Lsym?=D?1/2LD?1/2,元素級別定義如下:
Lsym={1ifI=j?1(deg?(vi)deg?(vj)ifeij∈E0otherwiseL_{\text{sym}}=\begin{cases} 1&\text{if}\quad I=j\\ \frac{-1}{\sqrt{(deg?(v_i )deg?(v_j )}}&\text{if}\quad e_{ij}\in E\\ 0 &\text{otherwise} \end{cases} Lsym?=????????1(deg?(vi?)deg?(vj?)??1?0?ifI=jifeij?∈Eotherwise?
?拉普拉斯矩陣的定義來源于拉普拉斯算子,拉普拉斯算子是nnn維歐式空間中的一個二維微分算子:?f=∑i=1n?2f?xi2?f=∑_{i=1}^n\frac{?^2f}{?x_i^2}?f=∑i=1n??xi2??2f? 。如果將該算子的作用域退化到離散的二維圖像空間,就成了我們非常熟悉的邊緣檢測算子,其作用原理如下:
?f(x,y)=?2f(x,y)?x2+?2f(x,y)?y2=[(f(x+1,y)?f(x,y))?(f(x,y)?f(x?1,y))]+[(f(x,y+1)?f(x,y))?(f(x,y)?f(x,y?1))]=[(f(x+1,y)+f(x?1,y))+(f(x,y+1)?f(x,y?1))]?4f(x,y)\begin{aligned}?f(x,y)&=\frac{?^2 f(x,y)}{?x^2} +\frac{?^2f(x,y)}{?y}^2\\ &=[(f(x+1,y)-f(x,y))-(f(x,y)-f(x-1,y))] +[(f(x,y+1)-f(x,y))-(f(x,y)-f(x,y-1))]\\ &=[(f(x+1,y)+f(x-1,y))+(f(x,y+1)-f(x,y-1))]-4f(x,y)\end{aligned}?f(x,y)?=?x2?2f(x,y)?+?y?2f(x,y)?2=[(f(x+1,y)?f(x,y))?(f(x,y)?f(x?1,y))]+[(f(x,y+1)?f(x,y))?(f(x,y)?f(x,y?1))]=[(f(x+1,y)+f(x?1,y))+(f(x,y+1)?f(x,y?1))]?4f(x,y)?
?在處理圖像的時候,上式中的算子會被表示成模板的形式:
?從模板中我們可以直觀地看到,拉普拉斯算子也被用來描述中心節點與鄰居節點之間的信號的差異。
?同理,在圖信號中,拉普拉斯算子也被用來描述中心節點與鄰居節點之間的信號差異,這從下式中可以看出:
Lx=(D?A)x=[?,∑vj∈N(vj),?]L\boldsymbol x=(D-A)\boldsymbol x=[\dotsb, \sum_{v_j\in N(v_j)}, \dotsb]Lx=(D?A)x=[?,vj?∈N(vj?)∑?,?]
?由此可知,拉普拉斯矩陣是一個反映圖信號局部平滑度的算子。更進一步來說,拉普拉斯矩陣可以讓我們定義一個非常重要的二次型:
xTLx=∑vi∑vj∈N(vi)xi(xi?xj)=∑eij∈E(xi?xj)2\boldsymbol x^\text{T}L\boldsymbol x=∑_{v_i}∑_{v_j∈N(v_i)}x_i(x_i-x_j )=∑_{e_{ij}∈E}(x_i-x_j )^2xTLx=vi?∑?vj?∈N(vi?)∑?xi?(xi??xj?)=eij?∈E∑?(xi??xj?)2
?令TV(x)=xTLx=∑eij∈E(xi?xj)2TV(\boldsymbol x)=\boldsymbol x^\text{T} L\boldsymbol x=∑_{e_{ij}∈E}(x_i-x_j)^2TV(x)=xTLx=∑eij?∈E?(xi??xj?)2,我們稱TV(x)TV(\boldsymbol x)TV(x)為圖信號的總變差(Total Variation)。總變差是一個標量,它將各條邊上信號的差值進行加和,刻畫了圖信號整體的平滑度。
參考文獻
[1] 劉忠雨, 李彥霖, 周洋.《深入淺出圖神經網絡: GNN原理解析》.機械工業出版社.
總結
以上是生活随笔為你收集整理的图神经网络(一)图信号处理与图卷积神经网络(2)图信号与图的拉普拉斯矩阵的全部內容,希望文章能夠幫你解決所遇到的問題。
- 上一篇: 饿了么网上订餐的步骤
- 下一篇: 聚焦和增强卷积神经网络