日韩性视频-久久久蜜桃-www中文字幕-在线中文字幕av-亚洲欧美一区二区三区四区-撸久久-香蕉视频一区-久久无码精品丰满人妻-国产高潮av-激情福利社-日韩av网址大全-国产精品久久999-日本五十路在线-性欧美在线-久久99精品波多结衣一区-男女午夜免费视频-黑人极品ⅴideos精品欧美棵-人人妻人人澡人人爽精品欧美一区-日韩一区在线看-欧美a级在线免费观看

歡迎訪問 生活随笔!

生活随笔

當前位置: 首頁 > 人工智能 > 卷积神经网络 >内容正文

卷积神经网络

图神经网络(一)图信号处理与图卷积神经网络(3)图傅里叶变换

發布時間:2023/12/15 卷积神经网络 41 豆豆
生活随笔 收集整理的這篇文章主要介紹了 图神经网络(一)图信号处理与图卷积神经网络(3)图傅里叶变换 小編覺得挺不錯的,現在分享給大家,幫大家做個參考.

圖神經網絡(一)圖信號處理與圖卷積神經網絡(3)圖傅里葉變換

傅里葉變換是數字信號處理的基石,傅里葉變換將信號從時域空間轉換到頻域空間,而頻域視角給信號的處理帶來了極大的遍歷。圍繞傅里葉變換,信號的濾波、卷積等操作都有了完備的理論定義,這為一些實際的工程應用,如信號的去噪、壓縮、重構等任務提供了理論指導。1

?類比傅里葉變換,我們給出圖信號傅里葉變換的定義,即將圖信號由空域(spatial domain)視角轉換到頻域(frequency domain)視角,便于圖信號出爐理論體系的建立。

?假設圖G的拉普拉斯矩陣2L∈RN×NL∈R^{\text{N×N}}LRN×N,由于LLL是一個實對稱矩陣,根據實對稱矩陣都可以被正交對角化3,可得:
L=VΛVT=[????v1v2?vN????][λ1?0???0?λN][?v1??v2?????vN?]L=VΛV^\text{T}=\begin{bmatrix}?&?&?&?\\v_1&v_2&?&v_N\\?&?&?&? \end{bmatrix}\begin{bmatrix}λ_1&?&0\\?&?&?\\0&?&λ_N\end{bmatrix}\begin{bmatrix}?&v_1&?\\?&v_2&?\\?&?&?\\?&v_N&?\end{bmatrix}L=VΛVT=??????v1????v2????????vN????????????λ1??0?????0?λN?????????????????v1?v2??vN?????????????

?V∈RN×NV∈R^{\text{N×N}}VRN×N是一個正交矩陣,即VVT=IVV^\text{T}=IVVT=IV=[v1,v2,…,vN]V=[v_1,v_2,…,v_\text{N}]V=[v1?,v2?,,vN?]表示LLLNNN個特征向量,由于VVV是一個正交矩陣,這些特征向量都是彼此之間線性無關的單位向量。λkλ_kλk?表示第kkk個向量對應的特征值,我們對特征值進行生序排列,即λ1≤λ2≤?≤λNλ_1≤λ_2≤?≤λ_\text{N}λ1?λ2??λN?

?對于任意給定的向量x\boldsymbol xx,拉普拉斯矩陣的二次型:xTLx=∑eij∈E(xi?xj)2≥0\boldsymbol x^\text{T} L\boldsymbol x=∑_{e_{ij∈E}}(x_i-x_j)^2 ≥0xTLx=eijE??(xi??xj?)20,因此拉普拉斯矩陣是一個半正定型矩陣,其所有的特征值均大于等于000。進一步,由式可知:LI=0LI=0LI=0,因此拉普拉斯矩陣具有最小的特征值000,即λ1=0λ_1=0λ1?=0。另外可以證明,對于LsymL_{\text{sym}}Lsym?,其特征值存在一個上限:λN≤2λ_\text{N}≤2λN?2

?圖傅里葉變換(GraphFourier Transform,GFT):對于任意一個在圖G上的信號x\boldsymbol xx,其圖傅里葉變換為:
x~k=∑i=1NVkiTxi=?vk,x?\tilde{\boldsymbol x}_k=∑_{i=1}^NV_{ki}^\text{T} x_i=\langle \boldsymbol v_k,\boldsymbol x\ranglex~k?=i=1N?VkiT?xi?=?vk?,x?
?我們稱特征向量為傅里葉基,x~k\tilde{\boldsymbol x}_kx~k?是x在第k個傅里葉基上的傅里葉系數。從定義式上可以看到,傅里葉系數本質上是圖信號在傅里葉基上的投影,衡量了圖信號與傅里葉基之間的相似度。用矩陣形式可計算出所有的傅里葉系數:
x~k=VTx,x~k∈RN\tilde{\boldsymbol x}_k=V^\text{T} \boldsymbol x,\tilde{\boldsymbol x}_k∈R^Nx~k?=VTx,x~k?RN
?由于VVV是一個正交矩陣,對上式左乘VVV,則:Vx~=VVTx=Ix=xV\tilde{\boldsymbol x}=VV^\text{T} \boldsymbol x=I\boldsymbol x=\boldsymbol xVx~=VVTx=Ix=x,即:
x=Vx~,x∈RN\boldsymbol x=V\tilde{\boldsymbol x},\boldsymbol x∈R^Nx=Vx~,xRN?于是我們可以將 逆圖傅里葉變換(Inverse Graph Fourier Transform,IGFT)定義為:
xk=∑i=1NVki?x~ix_k=∑_{i=1}^NV_{ki}\cdot \tilde{x}_i xk?=i=1N?Vki??x~i?
x=Vx~\boldsymbol x=V\tilde{\boldsymbol x}x=Vx~是一種矩陣形式的逆圖傅里葉變換,如果將其展開成向量形式,則:
x=Vx~=[????v1v2?vN????][x~1x~2?x~N]=x~1v1+x~2v2+?+x~NvN=∑k=1Nx~kvk\begin{aligned}\boldsymbol x=V\tilde{\boldsymbol x}&=\begin{bmatrix}?&?&?&?\\\boldsymbol v_1&\boldsymbol v_2&?&\boldsymbol v_N\\?&?&?&? \end{bmatrix}\begin{bmatrix} \tilde{x}_1\\\tilde{x}_2\\?\\\tilde{x}_N\end{bmatrix}\\ &=\tilde{x}_1\boldsymbol v_1+\tilde{x}_2\boldsymbol v_2+?+\tilde{x}_N\boldsymbol v_N\\ &=∑_{k=1}^N\tilde{x}_k\boldsymbol v_k \end{aligned}x=Vx~?=??????v1????v2????????vN??????????????x~1?x~2??x~N????????=x~1?v1?+x~2?v2?+?+x~N?vN?=k=1N?x~k?vk???由此可知,從線性代數的角度來看,v1v_1v1?v2v_2v2?……vNv_NvN?組成了N維特征空間中的一組完備的基向量,圖G上的任意一個圖信號都可以被表征成這些基向量的線性加權。具體來說,權重就是圖信號在對應傅里葉基上的傅里葉系數,這種對圖信號的分解表示方法,給了我們一種全新的看待圖信號的視角。這樣的分解思路與離散信號處理中所定義的傅里葉變換如出一轍,如圖1所示:

圖1 傅里葉變換


?其中a圖為圖信號被分解到兩個傅里葉基上的示意圖,b圖為時域信號被分解成兩個正弦信號的加和示意圖。

?圖傅里葉變換與圖信號的頻率有什么關系呢?要理解這個問題,我們必須回到總變差的定義式上,有了圖傅里葉變換的定義之后,我們可以對總變差進行改寫:
TV(x)=xTLx=xTVΛVTx=(Vx~)TVΛVT(Vx~)=x~TVTVΛVTVx~=x~TΛx~=∑kNλkx~k2\begin{aligned}\text{TV}(\boldsymbol x)&=\boldsymbol x^\text{T} L\boldsymbol x=\boldsymbol x^\text{T} VΛV^\text{T}\boldsymbol x\\ &=(V\tilde{\boldsymbol x})^\text{T} VΛV^\text{T} (V\tilde{\boldsymbol x})\\ &=\tilde{\boldsymbol x}^\text{T} V^\text{T} VΛV^\text{T} V\tilde{\boldsymbol x}\\ &=\tilde{\boldsymbol x}^\text{T} Λ\tilde{\boldsymbol x}\\ &=∑_k^Nλ_k \tilde{x}_k^2 \end{aligned}TV(x)?=xTLx=xTVΛVTx=(Vx~)TVΛVT(Vx~)=x~TVTVΛVTVx~=x~TΛx~=kN?λk?x~k2???從上式中可以看出,圖信號的總變差與圖的特征值之間有著非常直接的線性對應關系,總變差是圖的所有特征值的一個線性組合,權重是圖信號相對應的傅里葉系數的平方。那么,我們需要思考以下問題:在一個給定的圖上,什么樣的圖信號具有最小的總變差?

?我們將圖信號限定在單位向量上來考慮。由于圖的各個特征向量是彼此正交的單位向量,且特征值λ1λ_1λ1?λ2λ_2λ2?……λNλ_NλN?是從小到大依次排列的,因此總變差取最小值的條件是圖信號與最小的特征值λ1λ_1λ1?所對應的特征向量v1v_1v1?完全吻合,此時僅有x1≠0x_1≠0x1??=0,其他項傅里葉系數為000,總變差TV(x1)=λ1\text{TV}(x_1 )=λ_1TV(x1?)=λ1?。事實上,若x=vkx=v_kx=vk?,則TV(vk)=λk\text{TV}(v_k )=λ_kTV(vk?)=λk?,可以進一步詳細證明,如果要選擇一組彼此正交的圖信號,使得各自的總變差一次取得最小值,那么這組圖信號就是v1v_1v1?v2v_2v2?……vNv_NvN?,如下式所示:
λk=minx:∥x∥=1,x⊥x1.x2,...,xk?1xTLx\lambda_k=\underset{x:\| x\|=1,x\perp x_1.x_2,...,x_{k-1}}{\text{min}}\boldsymbol x^\text{T} L\boldsymbol xλk?=x:x=1,xx1?.x2?,...,xk?1?min?xTLx?結合總變差代表著圖信號整體平滑度的實際應用,我們可以發現,特征值依次排列在一起,對圖信號的平滑度作出了一種梯度刻畫,因此可以將特征值等價成頻率。特征值越低,頻率越低,對應的傅里葉基就變化得越劇烈,相近節點上的信號值則非常不一致。

?下面我們來看一個具體的計算實例:

圖2 圖G和拉普拉斯矩陣


?如圖2中的b圖所示,根據實對稱陣的正交對角化公式(本節第一個公式),計算得到該圖的拉普拉斯矩陣的特征矩陣與特征值:
V=[?0.4470.438?0.70300.338?0.4470.2560.2420.707?0.419?0.4470.2560.242?0.707?0.419?0.447?0.1380.53600.702?0.447?0.811?0.3180?0.202]Λ=diag([00.82992.68944.481])\begin{aligned}&V=\begin{bmatrix}-0.447&0.438&-0.703&0&0.338\\-0.447&0.256&0.242&0.707&-0.419\\-0.447&0.256&0.242&-0.707&-0.419\\-0.447&-0.138&0.536&0&0.702\\-0.447&-0.811&-0.318&0&-0.202\end{bmatrix}\\ &Λ=\text{diag}(\begin{bmatrix}0&0.8299&2.689&4&4.481\end{bmatrix})\end{aligned}?V=????????0.447?0.447?0.447?0.447?0.447?0.4380.2560.256?0.138?0.811??0.7030.2420.2420.536?0.318?00.707?0.70700?0.338?0.419?0.4190.702?0.202????????Λ=diag([0?0.8299?2.689?4?4.481?])?
diag()\text{diag}()diag()表示將向量對角化成矩陣形式。圖3為將v1v_1v1?v2v_2v2?v5v_5v5?作為圖信號時的示意圖:

圖3 將特征向量作為圖信號的示意圖


?通過圖3我們可以直觀地看到,3組信號中v1v_1v1?變化得最緩慢,事實上v1v_1v1?的信號值處處相等,v5v_5v5?變化得最劇烈,而v2v_2v2?的效果居中。

?同時,我們也可以定義圖信號的能量:
E(x)=∥x∥=xTx=(Vx~)T(Vx~)=x~Tx~E(x)=\| \boldsymbol x\|=\boldsymbol x^\text{T} \boldsymbol x=(V\tilde{\boldsymbol x})^\text{T} (V\tilde{\boldsymbol x})=\tilde{\boldsymbol x}^\text{T} \tilde{\boldsymbol x}E(x)=x=xTx=(Vx~)T(Vx~)=x~Tx~?即圖信號的能量可以同時從空域和頻域進行等價定義。單位向量的圖信號能量為111

?有了頻率的定義,傅里葉系數就可以等價成圖信號在對應頻率分量上的幅值,反映了圖信號在該頻率分量上的強度。圖信號在低頻分量上的強度越大,該信號的平滑度就越高;相反,圖信號在高頻分量上的強度越大,該信號平滑度就越低。

?定義好圖傅里葉變換之后,我們就可以從頻域視角去研究圖信號了。我們把圖信號所有的傅里葉系數合在一起稱為該信號的頻譜(spectrum)。在一個給定的圖中,圖信號的頻譜等價于一種身份ID,給定了頻譜,我們就可以運用逆圖傅里葉變換,完整地推導出空域中的圖信號。同時,頻譜完整地描述了圖信號的頻域特性,為接下來的圖信號的采樣、濾波、重構等信號處理工作創造了條件。

?當然,需要特別注意的是,頻域視角是一種全局視角,圖信號頻譜上的任意一個傅里葉系數,都是對圖信號的某種低頻或高頻特征的定量描述,這種描述既考慮了圖信號本身值的大小,也考慮了圖的結構信息。圖4給出了從空域和頻域視角看圖信號的示意圖4

圖4 空域與頻域中的信號
?在圖4中,第一排畫出了在空域中的圖信號,3組圖信號的能量是一樣的,但是由于$G_1$、$G_2$、$G_3$的圖結構不同,使得信號在視覺上給人不同的平滑度感受。具體來講,$G_1$上圖信號在相近的節點上的信號值很相似;$G_3$上的圖信號在相近的節點上的信號值差異比較大;$G_2$上的圖信號的情況結語二者之間。
?第二排畫出了對應圖信號的頻譜圖,從圖4中可以看到,$G_1$上圖信號的傅里葉系數在小于$0.5$的低頻上取得最大值,且非常集中;$G_2$上圖信號的傅里葉系數在等于$1$的頻率上取得最大值;$G_3$上圖信號的傅里葉系數在大于$1$的頻率上取得最大值,且在中高頻分量上有著更高的強度。上下兩排圖分別從空域和頻域描述了3組信號的平滑度,當然這種比較也可以從總變差的計算中得出: $$\begin{aligned}&\boldsymbol x^\text{T} L_1 \boldsymbol x=0.14,\\&\boldsymbol x^\text{T} L_2 \boldsymbol x=1.31,\\&\boldsymbol x^\text{T} L_3 \boldsymbol x=1.81。\end{aligned}$$

參考文獻


  • [1] 劉忠雨, 李彥霖, 周洋.《深入淺出圖神經網絡: GNN原理解析》.機械工業出版社. ??

  • [2] 拉普拉斯矩講解:https://blog.csdn.net/qq_30159015/article/details/83271065 ??

  • [3] D. I. Shuman, S. K. Narang, P. Frossard, A. Ortega and P. Vandergheynst, “The emerging field of signal processing on graphs: Extending high-dimensional data analysis to networks and other irregular domains,” in IEEE Signal Processing Magazine, vol. 30, no. 3, pp. 83-98, May 2013, doi: 10.1109/MSP.2012.2235192. ??

  • [4] D. I. Shuman, S. K. Narang, P. Frossard, A. Ortega and P. Vandergheynst, “The emerging field of signal processing on graphs: Extending high-dimensional data analysis to networks and other irregular domains,” in IEEE Signal Processing Magazine, vol. 30, no. 3, pp. 83-98, May 2013, doi: 10.1109/MSP.2012.2235192. ??

  • 創作挑戰賽新人創作獎勵來咯,堅持創作打卡瓜分現金大獎

    總結

    以上是生活随笔為你收集整理的图神经网络(一)图信号处理与图卷积神经网络(3)图傅里叶变换的全部內容,希望文章能夠幫你解決所遇到的問題。

    如果覺得生活随笔網站內容還不錯,歡迎將生活随笔推薦給好友。