日韩性视频-久久久蜜桃-www中文字幕-在线中文字幕av-亚洲欧美一区二区三区四区-撸久久-香蕉视频一区-久久无码精品丰满人妻-国产高潮av-激情福利社-日韩av网址大全-国产精品久久999-日本五十路在线-性欧美在线-久久99精品波多结衣一区-男女午夜免费视频-黑人极品ⅴideos精品欧美棵-人人妻人人澡人人爽精品欧美一区-日韩一区在线看-欧美a级在线免费观看

歡迎訪問 生活随笔!

生活随笔

當前位置: 首頁 > 人工智能 > 卷积神经网络 >内容正文

卷积神经网络

图神经网络(一)图信号处理与图卷积神经网络(2)图信号与图的拉普拉斯矩阵

發布時間:2023/12/15 卷积神经网络 40 豆豆
生活随笔 收集整理的這篇文章主要介紹了 图神经网络(一)图信号处理与图卷积神经网络(2)图信号与图的拉普拉斯矩阵 小編覺得挺不錯的,現在分享給大家,幫大家做個參考.

圖神經網絡(一)圖信號處理與圖卷積神經網絡(2)圖信號與圖的拉普拉斯矩陣

?給定圖G=(V,E)G=(V,E)G=(V,E),V表示圖中的節點集合,假設其長度為NNN,圖信號是一種描述V→RV→RVR的映射,表示成向量的形式:x=[x1,x2,…,xN]Tx=[x_1,x_2,…,x_N]^{\rm T}x=[x1?,x2?,,xN?]T,其中xix_ixi?表示的是節點viv_ivi?上的信號強度,如圖1-1所示,其中豎線長度表示節點上信號值的大小:

圖1-1 圖信號示例


?與離散時間信號不同,圖信號是定義在節點上的信號,而節點之間有自己固有的關聯結構。在研究圖信號性質的時候,處理要考慮圖信號的強度之外,還需要考慮圖的拓撲結構,不同圖上同一強度的信號,具有截然不同的性質。

?拉普拉斯矩陣(Laplacian Matrix)是用來研究圖的結構性質的核心對象,拉普拉斯矩陣的定義如下:L=D?AL=D-AL=D?ADDD是一個對角矩陣,Dii=∑jAijD_{ii}=∑_jA_{ij}Dii?=j?Aij?表示的是節點viv_ivi?的度。拉普拉斯矩陣的元素級別定義如下:

Lij={deg?(vi)ifI=j?1ifeij∈E0otherwiseL_{ij}=\begin{cases} deg?(v_i) &\text{if}\quad I=j\\ -1 &\text{if}\quad e_{ij}\in E\\ 0 &\text{otherwise} \end{cases} Lij?=??????deg?(vi?)?10?ifI=jifeij?Eotherwise?

?拉普拉斯矩陣還有一種正則化的形式(symmetric normalized laplacian)Lsym=D?1/2LD?1/2L_{\text{sym}}=D^{-1/2} LD^{-1/2}Lsym?=D?1/2LD?1/2,元素級別定義如下:

Lsym={1ifI=j?1(deg?(vi)deg?(vj)ifeij∈E0otherwiseL_{\text{sym}}=\begin{cases} 1&\text{if}\quad I=j\\ \frac{-1}{\sqrt{(deg?(v_i )deg?(v_j )}}&\text{if}\quad e_{ij}\in E\\ 0 &\text{otherwise} \end{cases} Lsym?=????????1(deg?(vi?)deg?(vj?)??1?0?ifI=jifeij?Eotherwise?

?拉普拉斯矩陣的定義來源于拉普拉斯算子,拉普拉斯算子是nnn維歐式空間中的一個二維微分算子:?f=∑i=1n?2f?xi2?f=∑_{i=1}^n\frac{?^2f}{?x_i^2}?f=i=1n??xi2??2f? 。如果將該算子的作用域退化到離散的二維圖像空間,就成了我們非常熟悉的邊緣檢測算子,其作用原理如下:
?f(x,y)=?2f(x,y)?x2+?2f(x,y)?y2=[(f(x+1,y)?f(x,y))?(f(x,y)?f(x?1,y))]+[(f(x,y+1)?f(x,y))?(f(x,y)?f(x,y?1))]=[(f(x+1,y)+f(x?1,y))+(f(x,y+1)?f(x,y?1))]?4f(x,y)\begin{aligned}?f(x,y)&=\frac{?^2 f(x,y)}{?x^2} +\frac{?^2f(x,y)}{?y}^2\\ &=[(f(x+1,y)-f(x,y))-(f(x,y)-f(x-1,y))] +[(f(x,y+1)-f(x,y))-(f(x,y)-f(x,y-1))]\\ &=[(f(x+1,y)+f(x-1,y))+(f(x,y+1)-f(x,y-1))]-4f(x,y)\end{aligned}?f(x,y)?=?x2?2f(x,y)?+?y?2f(x,y)?2=[(f(x+1,y)?f(x,y))?(f(x,y)?f(x?1,y))]+[(f(x,y+1)?f(x,y))?(f(x,y)?f(x,y?1))]=[(f(x+1,y)+f(x?1,y))+(f(x,y+1)?f(x,y?1))]?4f(x,y)?

?在處理圖像的時候,上式中的算子會被表示成模板的形式:

?從模板中我們可以直觀地看到,拉普拉斯算子也被用來描述中心節點與鄰居節點之間的信號的差異。

?同理,在圖信號中,拉普拉斯算子也被用來描述中心節點與鄰居節點之間的信號差異,這從下式中可以看出:
Lx=(D?A)x=[?,∑vj∈N(vj),?]L\boldsymbol x=(D-A)\boldsymbol x=[\dotsb, \sum_{v_j\in N(v_j)}, \dotsb]Lx=(D?A)x=[?,vj?N(vj?)?,?]
?由此可知,拉普拉斯矩陣是一個反映圖信號局部平滑度的算子。更進一步來說,拉普拉斯矩陣可以讓我們定義一個非常重要的二次型:
xTLx=∑vi∑vj∈N(vi)xi(xi?xj)=∑eij∈E(xi?xj)2\boldsymbol x^\text{T}L\boldsymbol x=∑_{v_i}∑_{v_j∈N(v_i)}x_i(x_i-x_j )=∑_{e_{ij}∈E}(x_i-x_j )^2xTLx=vi??vj?N(vi?)?xi?(xi??xj?)=eij?E?(xi??xj?)2
?令TV(x)=xTLx=∑eij∈E(xi?xj)2TV(\boldsymbol x)=\boldsymbol x^\text{T} L\boldsymbol x=∑_{e_{ij}∈E}(x_i-x_j)^2TV(x)=xTLx=eij?E?(xi??xj?)2,我們稱TV(x)TV(\boldsymbol x)TV(x)為圖信號的總變差(Total Variation)。總變差是一個標量,它將各條邊上信號的差值進行加和,刻畫了圖信號整體的平滑度。

參考文獻
[1] 劉忠雨, 李彥霖, 周洋.《深入淺出圖神經網絡: GNN原理解析》.機械工業出版社.

總結

以上是生活随笔為你收集整理的图神经网络(一)图信号处理与图卷积神经网络(2)图信号与图的拉普拉斯矩阵的全部內容,希望文章能夠幫你解決所遇到的問題。

如果覺得生活随笔網站內容還不錯,歡迎將生活随笔推薦給好友。