【论文知识点笔记】GNN概述(图神经网络概述)
GNN(圖神經(jīng)網(wǎng)絡(luò))
- 圖卷積的譜方法
- 圖(Graph)
- 圖拉普拉斯矩陣(Graph Laplacian)
- 正則化的圖拉普拉斯矩陣(Normalized graph Laplacian)
- 圖傅里葉基(Fourier basis of graph GGG)
- 圖傅里葉變換(Graph Fourier transform)
- 譜域的卷積定理(Convolution theorem)
- 譜域的圖卷(Spectral Graph CNN)
- 切比雪夫多項(xiàng)式近似圖卷積核(ChebyNet)
- 圖小波神經(jīng)網(wǎng)絡(luò)(Graph wavelet neural network-GWNN)
- 圖卷積的空間方法
- 初步的圖重構(gòu)的方法
- GraphSAGE
- Graph Convolution Network-GCN
- Graph Attention Network-GAT
- 普通的空間方法框架-MoNet
- 圖卷積譜方法和空間方法的關(guān)系
- 譜方法是空間方法的特例
- 圖的卷積核
- 改進(jìn)切比雪夫方法
- 方法對(duì)比
- 圖池化(Graph Pooling)
- 圖粗化(Graph coarsening)
- 節(jié)點(diǎn)選擇(Node selection)
拉普拉斯矩陣示例
視頻地址
圖卷積的譜方法
圖(Graph)
G=(V,E,W)\boldsymbol{G = (V,E,W)}G=(V,E,W)
- V?節(jié)點(diǎn)的集合\boldsymbol{V-節(jié)點(diǎn)的集合}V?節(jié)點(diǎn)的集合
- E?邊的集合\boldsymbol{E-邊的集合}E?邊的集合
- W?權(quán)重的集合,W∈Rn×n\boldsymbol{W-權(quán)重的集合,W \in R^{n \times n}}W?權(quán)重的集合,W∈Rn×n
- X?節(jié)點(diǎn)的特征矩陣,X∈Rn×d\boldsymbol{X-節(jié)點(diǎn)的特征矩陣,X \in R^{n \times d}}X?節(jié)點(diǎn)的特征矩陣,X∈Rn×d
每個(gè)節(jié)點(diǎn)都有d維的特征,X為節(jié)點(diǎn)的特征矩陣,X的每一列可以看作定義在n個(gè)節(jié)點(diǎn)的圖上的信號(hào)。(信號(hào)處理)
圖拉普拉斯矩陣(Graph Laplacian)
定義了圖上的導(dǎo)數(shù),刻畫了信號(hào)在圖上的平滑程度。
L=D?W\boldsymbol{L = D - W}L=D?W
- D?度矩陣,Dii=∑jWij\boldsymbol{D-度矩陣,\boldsymbol{D}_{i i}=\sum_{j} \boldsymbol{W}_{i j}}D?度矩陣,Dii?=∑j?Wij?
- W?權(quán)值矩陣\boldsymbol{W-權(quán)值矩陣}W?權(quán)值矩陣
正則化的圖拉普拉斯矩陣(Normalized graph Laplacian)
L=I?D?12WD?12\boldsymbol{L}=\boldsymbol{I}-\boldsymbol{D}^{-\frac{1}{2}} \boldsymbol{W} \boldsymbol{D}^{-\frac{1}{2}}L=I?D?21?WD?21?
I\boldsymbol{I}I為單位矩陣,L\boldsymbol{L}L的每個(gè)元素如下:
Li,j:={1if?i=jand?deg?(vi)≠0?1deg?(vi)deg?(vj)if?i≠jand?viis?adjacent?to?vj0otherwise.?\boldsymbol{L_{i, j}:=\left\{\begin{array}{ll} 1 & \text { if } i=j \text { and } \operatorname{deg}\left(v_{i}\right) \neq 0 \\ -\frac{1}{\sqrt{\operatorname{deg}\left(v_{i}\right) \operatorname{deg}\left(v_{j}\right)}} & \text { if } i \neq j \text { and } v_{i} \text { is adjacent to } v_{j} \\ 0 & \text { otherwise. } \end{array}\right.} Li,j?:=??????1?deg(vi?)deg(vj?)?1?0??if?i=j?and?deg(vi?)?=0?if?i?=j?and?vi??is?adjacent?to?vj??otherwise.??
圖傅里葉基(Fourier basis of graph GGG)
假如圖上有n個(gè)節(jié)點(diǎn),每個(gè)節(jié)點(diǎn)有一個(gè)取值,圖上的一個(gè)信號(hào)就是一個(gè)n維度的向量,我們需要把這個(gè)n維度的向量變換到新的域里邊去,那就需要一組基,這組基呢就是拉普拉斯矩陣的n個(gè)特征向量。它的n個(gè)特征向量就構(gòu)成了一個(gè)n維空間,且n個(gè)特征向量正交的,這是由拉普拉斯矩陣性質(zhì)決定的。我們所需要做的就是把這信號(hào)x投影在這n個(gè)基上,就相當(dāng)于x在u1的投影=x?u1x在u_1的投影 = x \cdot u_1x在u1?的投影=x?u1?,x在新的這組基下的投影x^=UTx\widehat{\boldsymbol{x}}=\boldsymbol{U}^{T} \boldsymbol{x}x=UTx,x^\widehat{\boldsymbol{x}}x就是這個(gè)原始信號(hào)在譜域的表達(dá)。如何轉(zhuǎn)換回,需要對(duì)其進(jìn)行逆變換x=Ux^x=U \widehat{x}x=Ux。
- U={ul}l=1n?L的正交特征向量的集合U=\boldsymbol{\left\{\boldsymbol{u}_{l}\right\}_{l=1}^{n}-L的正交特征向量的集合}U={ul?}l=1n??L的正交特征向量的集合
- {λl}l=1n?L的非負(fù)特征值的集合\boldsymbol{\left\{\boldsymbol{\lambda}_{l}\right\}_{l=1}^{n}-L的非負(fù)特征值的集合}{λl?}l=1n??L的非負(fù)特征值的集合
- 圖拉普拉斯L可對(duì)角化:L=UΛUTwhere?U=[u1,?,un],and?Λ=diag?([λ1,?,λn])\boldsymbol{ \begin{array}{c} L=U \Lambda U^{T} \\ \text { where } U=\left[\boldsymbol{u}_{1}, \cdots, \boldsymbol{u}_{n}\right], \text { and } \Lambda=\operatorname{diag}\left(\left[\lambda_{1}, \cdots, \lambda_{n}\right]\right) \end{array}} L=UΛUT?where?U=[u1?,?,un?],?and?Λ=diag([λ1?,?,λn?])?
圖傅里葉變換(Graph Fourier transform)
圖傅里葉變換:
x^=UTx\widehat{\boldsymbol{x}}=\boldsymbol{U}^{T} \boldsymbol{x}x=UTx
圖傅里葉逆變換:
x=Ux^\boldsymbol{x}=\boldsymbol{U} \widehat{\boldsymbol{x}}x=Ux
譜域的卷積定理(Convolution theorem)
兩個(gè)信號(hào)的卷積,可以看成他們傅里葉變換后的點(diǎn)積。
根據(jù)卷積定理,給定一個(gè)x作為輸入,y作為卷積核,圖卷積?G*_G?G?可表示為
【對(duì)整體進(jìn)行傅里葉逆變換((對(duì)x進(jìn)行傅里葉變換)點(diǎn)乘(對(duì)y進(jìn)行傅里葉變換))】
x?Gy=U((UTx)⊙(UTy))\boldsymbol{x *_{G} y=U\left(\left(\boldsymbol{U}^{T} \boldsymbol{x}\right) \odot\left(\boldsymbol{U}^{T} y\right)\right)} x?G?y=U((UTx)⊙(UTy))
- UTy?在譜域上的卷積核\boldsymbol{U^{T} y-在譜域上的卷積核}UTy?在譜域上的卷積核
所以可進(jìn)一步表示為:
x?Gy=UgθUTx\boldsymbol{x} *_{\boldsymbol{G}} \boldsymbol{y}=\boldsymbol{U} \boldsymbol{g}_{\theta} \boldsymbol{U}^{\boldsymbol{T}} \boldsymbol{x} x?G?y=Ugθ?UTx
譜域的圖卷(Spectral Graph CNN)
h-非線性變換。
切比雪夫多項(xiàng)式近似圖卷積核(ChebyNet)
圖小波神經(jīng)網(wǎng)絡(luò)(Graph wavelet neural network-GWNN)
圖卷積的空間方法
初步的圖重構(gòu)的方法
GraphSAGE
Graph Convolution Network-GCN
Graph Attention Network-GAT
普通的空間方法框架-MoNet
圖卷積譜方法和空間方法的關(guān)系
譜方法是空間方法的特例
圖的卷積核
信號(hào)變換的過程
改進(jìn)切比雪夫方法
方法對(duì)比
圖池化(Graph Pooling)
圖粗化(Graph coarsening)
節(jié)點(diǎn)選擇(Node selection)
總結(jié)
以上是生活随笔為你收集整理的【论文知识点笔记】GNN概述(图神经网络概述)的全部?jī)?nèi)容,希望文章能夠幫你解決所遇到的問題。
- 上一篇: 【论文常用笔记】回归模型评估指标
- 下一篇: 【论文知识点笔记】GNN流程到GCN流程