【论文知识点笔记】GNN流程到GCN流程
聚合、更新、循環(huán)
- 舉例:輸入一個(gè)簡(jiǎn)單的圖結(jié)構(gòu)
- GNN
- 聚合操作
- 更新操作
- 循環(huán)操作(多層更新操作)
- 目的
- GCN
- 修改的聚合部分
- 平均法
- 平均法存在的問(wèn)題
- GCN提出的方法
簡(jiǎn)單粗暴快速理解GNN
Graph-Unets
GCN中的拉普拉斯矩陣如何歸一化?
舉例:輸入一個(gè)簡(jiǎn)單的圖結(jié)構(gòu)
GNN
聚合操作
經(jīng)過(guò)一次聚合后:聚合到的信息:
鄰居信息N=a?(2,2,2,2,2)+b?(3,3,3,3,3)+c?(4,4,4,4,4)鄰居信息N = a*(2,2,2,2,2)+b*(3,3,3,3,3)+c*(4,4,4,4,4) 鄰居信息N=a?(2,2,2,2,2)+b?(3,3,3,3,3)+c?(4,4,4,4,4)
- a、b、ca、b、ca、b、c :自行設(shè)置或進(jìn)行訓(xùn)練學(xué)習(xí)。
簡(jiǎn)單的說(shuō):就是將其他相鄰節(jié)點(diǎn)的信息聚合,作為當(dāng)前節(jié)點(diǎn)信息的一個(gè)補(bǔ)足。
更新操作
A的信息?=σ(W((1,1,1,1,1)+α?N))\text { A的信息 }=\sigma\left(\mathrm{W}\left((1,1,1,1,1)+\alpha^{*} \mathrm{~N}\right)\right) ?A的信息?=σ(W((1,1,1,1,1)+α??N))
簡(jiǎn)單地說(shuō):將得到的鄰居節(jié)點(diǎn)信息乘以系數(shù)加到當(dāng)前節(jié)點(diǎn),再乘以學(xué)習(xí)的權(quán)重和激活函數(shù),從而獲得聚合后的A的信息(一層GNN后的A的最終信息)。
- α\alphaα :自行設(shè)置或attention機(jī)制選出或進(jìn)行訓(xùn)練學(xué)習(xí)。
- WWW :模型需要訓(xùn)練的權(quán)值參數(shù)。
- σ\sigmaσ :激活函數(shù)。
循環(huán)操作(多層更新操作)
【n層的GNN可以得到n層的鄰居信息】
經(jīng)過(guò)一次聚合后:
- A中有B,C,D的信息
- B中有A,C的信息
- C中有A,B,D,E的信息
- D中有A,C的信息
- E中有C的信息
那么第二次聚合之后以此類推
- 以A結(jié)點(diǎn)為例,此時(shí)A聚合C的時(shí)候,C中有上一層聚合到的E的信息,所以這時(shí)A獲得了二階鄰居E的特征。
目的
通過(guò)聚合更新,到最后,我們能夠得到每個(gè)結(jié)點(diǎn)的表達(dá),也就是特征feature,此時(shí):
- 結(jié)點(diǎn)分類就可以直接拿去分類,算loss, 優(yōu)化前面提到的W
- 關(guān)聯(lián)預(yù)測(cè)就最簡(jiǎn)單的方法兩個(gè)節(jié)點(diǎn)的特征一拼,拿去做分類,一樣的算loss, 優(yōu)化。
- 歸根到底,GNN就是個(gè)提取特征的方法! ! ! ! !
黑盒子表示:
輸入的是節(jié)點(diǎn)特征與圖的結(jié)構(gòu)
輸出的是包含結(jié)構(gòu)與特征的節(jié)點(diǎn)的最終特征
用最終特征去進(jìn)行分類、預(yù)測(cè)、回歸等操作。
GCN
修改的聚合部分
修改了GNN的聚合部分,提出解決a、b、ca、b、ca、b、c值的設(shè)定問(wèn)題。
平均法
首先:提出將鄰居的特征加起來(lái)作為特征求和。
之后又需要添加閉環(huán):添加一個(gè)自環(huán)加上自身的特征。
然后:又將求和的特征平均一下的得到當(dāng)前節(jié)點(diǎn)最終的特征。
平均法存在的問(wèn)題
馬云-我的例子。
GCN提出的方法
- A~\tilde{A}A~:鄰接矩陣A+單位矩陣I(表示鄰居的信息加上自己的信息)。
- D~\tilde{D}D~:A~\tilde{A}A~的度矩陣。
使用了對(duì)稱歸一化的拉普拉斯矩陣方法解決了這個(gè)問(wèn)題。
總結(jié)
以上是生活随笔為你收集整理的【论文知识点笔记】GNN流程到GCN流程的全部?jī)?nèi)容,希望文章能夠幫你解決所遇到的問(wèn)題。
- 上一篇: 【论文知识点笔记】GNN概述(图神经网络
- 下一篇: 【小代码讲解】独热编码(One-Hot编