日韩性视频-久久久蜜桃-www中文字幕-在线中文字幕av-亚洲欧美一区二区三区四区-撸久久-香蕉视频一区-久久无码精品丰满人妻-国产高潮av-激情福利社-日韩av网址大全-国产精品久久999-日本五十路在线-性欧美在线-久久99精品波多结衣一区-男女午夜免费视频-黑人极品ⅴideos精品欧美棵-人人妻人人澡人人爽精品欧美一区-日韩一区在线看-欧美a级在线免费观看

歡迎訪問 生活随笔!

生活随笔

當前位置: 首頁 > 编程资源 > 编程问答 >内容正文

编程问答

随机邻域嵌入_图嵌入(Graph embedding)综述

發布時間:2025/3/15 编程问答 28 豆豆
生活随笔 收集整理的這篇文章主要介紹了 随机邻域嵌入_图嵌入(Graph embedding)综述 小編覺得挺不錯的,現在分享給大家,幫大家做個參考.

最近在學習Embedding相關的知識的時候看到了一篇關于圖嵌入的綜述,覺得寫的不錯便把文章中的一部分翻譯了出來。因自身水平有限,文中難免存在一些紕漏,歡迎發現的知友在評論區中指正。

目錄

一、圖嵌入概述

二、圖嵌入的挑戰

三、圖嵌入的方法


一、圖嵌入概述

圖,如社交網絡、單詞共存網絡和通信網絡,廣泛地存在于各種現實應用中。通過對它們的分析,我們可以深入了解社會結構、語言和不同的交流模式,因此圖一直是學界研究的熱點。圖分析任務可以大致抽象為以下四類: ( a )節點分類,( b )鏈接預測,( c )聚類,以及( d )可視化。其中,節點分類旨在基于其他標記的節點和網絡拓撲來確定節點的標簽(也稱為頂點)。鏈路預測是指預測缺失鏈路或未來可能出現的鏈路的任務。聚類用于發現相似節點的子集,并將它們分組在一起;最后,可視化有助于深入了解網絡結構。

真實的圖(網絡)往往是高維、難以處理的,20世紀初,研究人員發明了圖形嵌入算法,作為降維技術的一部分。他們首先根據實際問題構造一個D維空間中的圖,然后將圖的節點嵌入到d(d<<D)維向量空間中。嵌入的思想是在向量空間中保持連接的節點彼此靠近。拉普拉斯特征映射(Laplacian Eigenmaps)和局部線性嵌入(Locally Linear Embedding ,LLE)是基于這一原理的算法的例子。然而,可伸縮性是這種方法的一個主要問題,它的時間復雜度是O (| V| 2)。

自2010年以來,關于圖嵌入的研究已經轉移到解決網絡稀疏性的可伸縮圖嵌入技術上。例如,圖分解(Graph Factorization)使用鄰接矩陣的近似分解作為嵌入。LINE擴展了這種方法,并試圖保持一階和二階近似。HOPE通過使用廣義奇異值分解( SVD )分解相似性矩陣而不是鄰接矩陣來擴展LINE以試圖保持高階鄰近性。SDNE 使用自動編碼器嵌入圖形節點并捕捉高度非線性的依賴關系。這些新的可擴展方法的時間復雜度為0 ( | E | )。

二、圖嵌入的挑戰

如前所述,圖嵌入的目標是發現高維圖的低維向量表示,而獲取圖中每個節點的向量表示是十分困難的,并且具有幾個挑戰,這些挑戰一直在推動本領域的研究:

  • 屬性選擇:節點的“良好”向量表示應保留圖的結構和單個節點之間的連接。第一個挑戰是選擇嵌入應該保留的圖形屬性。考慮到圖中所定義的距離度量和屬性過多,這種選擇可能很困難,性能可能取決于實際的應用場景。
  • 可擴展性:大多數真實網絡都很大,包含大量節點和邊。嵌入方法應具有可擴展性,能夠處理大型圖。定義一個可擴展的模型具有挑戰性,尤其是當該模型旨在保持網絡的全局屬性時。
  • 嵌入的維數:實際嵌入時很難找到表示的最佳維數。例如,較高的維數可能會提高重建精度,但具有較高的時間和空間復雜性。較低的維度雖然時間、空間復雜度低,但無疑會損失很多圖中原有的信息。

三、圖嵌入的方法

在過去的十年里,在圖形嵌入領域已經有了大量的研究,重點是設計新的嵌入算法。發展到現在,大體上可以將這些嵌入方法分為三大類:( 1 )基于因子分解的方法,( 2 )基于隨機游走的方法,以及( 3 )基于深度學習的方法。在下文中我將簡要解釋每一個類別的特征與每一類別代表性算法的原理。

1.預備知識與符號定義

定義1 圖:一個圖G(V,E)由頂點集V={v1,…,vn}與邊集

構成,圖的鄰接矩陣S則由每條邊的權值

構成。如果頂點vi和vj之間沒有邊連接,那么

。如果圖是無向圖,則

邊的權值Sij表示vi和vj的相似度,由特定的評價函數得出,值越高則兩個頂點越相似。

定義2 一階近似:邊緣權重也被稱為節點vi和vj之間的一階近似值,因為它們是兩個節點之間第一個也是最重要的相似性度量。

定義3 二階近似:一對節點之間的二階近似描述了該對節點鄰域結構的相似性。設

表示vi和其他節點之間的一階接近。然后,根據si和sj的相似性確定vi和vj之間的二階近似。二階近似比較兩個節點的鄰域,如果它們具有相似的鄰域,則將它們視為相似的。

在上圖中因為6和7之間有邊連接,所以6和7一階近似。5和6之間雖然沒有邊,但是它們有4個相同的鄰居節點,所以5和6二階近似。

定義4 圖形嵌入:對于圖G=(v,e),圖嵌入是圖的頂點的映射

,d<<|v|,函數f保留了圖G上定義的一些相似度。因此,嵌入會將每個節點映射到低維特征向量,并嘗試保留頂點之間的連接強度。例如,嵌入保留一階近似可通過最小化

來獲得接近。讓兩個節點對( vi,vj )和( vi,vk )與連接強度相關聯,假如Sij>Sik。在這種情況下,vj將被映射到嵌入空間中比vk的映射更接近vi的點。

2.基于因子分解的方法

2.1 Locally Linear Embedding (LLE)

LLE假設每個節點都是嵌入空間中相鄰節點的線性組合。如果假設圖G的鄰接矩陣元素代表節點j能夠表示節點i的權重,我們定義

于是我們可以通過最小化

來求解嵌入后的圖

為了去除退化解,嵌入的方差被約束為

,考慮到平移不變性,嵌入以零為中心:

上述約束優化問題可以簡化為特征值問題,其解是取稀疏矩陣

的底部d+1特征向量,并丟棄與最小特征值對應的那個特征向量。

2.2 Laplacian Eigenmaps

拉普拉斯特征映射的目的是在權重w ij較高時,保持兩個節點嵌入后離得很近,也就是說被分割太遠的兩個相似節點會得到更多的反饋(懲罰)。具體來說,它最小化了以下目標函數:

其中L是圖G的拉普拉斯算子,目標函數受到

約束,以消除瑣碎的解。這一問題的解可以通過取正則化L的最小的d個特征值對應的特征向量得到,

2.3. Cauchy graph embedding

拉普拉斯特征映射對嵌入節點之間的距離使用二次方的懲罰函數(

)。因此,在保持節點之間的相似性的同時,節點之間的差異性會被破壞。柯西圖嵌入通過使用

替換二次函數

來解決這個問題,重新排列后,要最大化的目標函數變成

,伴隨著

兩個約束。新的目標函數是距離的反函數,因此更加強調相似的節點而不是不同的節點。

2.4. Structure Preserving Embedding (SPE)

Structure Preserving Embedding (SPE)是另一種擴展拉普拉斯特征映射的方法。SPE的目標是精確地重建輸入圖。嵌入被存儲為一個正的半離散核矩陣K,并定義了一個連接算法G,該算法用來從K重構出原來的圖形。

2.5. Graph Factorization (GF)

圖因式分解(GF)應該是第一種獲得O(|E|)時間復雜度的圖嵌入方法。為了獲得嵌入,GF對圖的鄰接矩陣進行因式分解,以最小化以下損失函數:

其中,λ是一個正則化系數。注意,求和是在觀察到的邊上,而不是所有可能的邊上。這是一個考慮到可伸縮性的近似值,因此可能會在解決方案中引入噪聲。注意,由于鄰接矩陣通常不是半正定的,即使嵌入的維數為|v|,損失函數的最小值也大于0。

2.6. GraRep

GraRep將節點的轉換概率定義為:

,并通過最小化

來保持k階近似,其中,

中得到(詳細過程可以閱讀參考文獻)。然后它連接所有k的

以形成

。要注意的是,這和HOPE方法很相似,HOPE通過最小化

來求解,其中,S是一個合適的相似度矩陣。

GraRep的缺點是可擴展性,因為

往往會有

多個非零項。

2.7. HOPE

HOPE通過最小化

來保留更高階的近似,其中S是相似度矩陣。HOPE的作者測試了許多不同的相似度衡量方法,包括Katz Index, Rooted Page Rank, Common Neighbors, and Adamic-Adar score,并將S定義為

,這里面

都是稀疏的,因此HOPE也可以采用常用的奇異值分解方法來獲得高效的嵌入。

3、基于隨機游走的方法

3.1. DeepWalk

DeepWalk方法受到word2vec的啟發,首先選擇某一特定點為起始點,做隨機游走得到點的序列,然后將這個得到的序列視為句子,用word2vec來學習,得到該點的表示向量。DeepWalk通過隨機游走去可以獲圖中點的局部上下文信息,因此學到的表示向量反映的是該點在圖中的局部結構,兩個點在圖中共有的鄰近點(或者高階鄰近點)越多,則對應的兩個向量之間的距離就越短。

3.2. node2vec

與DeepWalk相似,node2vec通過最大化隨機游走得到的序列中的節點出現的概率來保持節點之間的高階鄰近性。與DeepWalk的最大區別在于,node2vec采用有偏隨機游走,在廣度優先(bfs)和深度優先(dfs)圖搜索之間進行權衡,從而產生比DeepWalk更高質量和更多信息量的嵌入。

3.3. Hierarchical representation learning for networks (HARP)

DeepWalk和node2vec隨機初始化節點嵌入以訓練模型。由于它們的目標函數是非凸的,這種初始化很可能陷入局部最優。HARP引入了一種策略,通過更好的權重初始化來改進解決方案并避免局部最優。為此,HARP通過使用圖形粗化聚合層次結構上一層中的節點來創建節點的層次結構。然后,它生成最粗糙的圖的嵌入,并用所學到的嵌入初始化精煉圖的節點嵌入(層次結構中的一個)。它通過層次結構傳播這種嵌入,以獲得原始圖形的嵌入。因此,可以將HARP與基于隨機行走的方法(如DeepWalk和node2vec)結合使用,以獲得更好的優化函數解。

3.4. Walklets

DeepWalk和node2vec通過隨機游走生成的序列,隱式地保持節點之間的高階鄰近性,由于其隨機性,這些隨機游走會得到不同距離的連接節點。另一方面,基于因子分解的方法,如GF和HOPE,通過在目標函數中對節點進行建模,明確地保留了節點之間的距離。Walklets將顯式建模與隨機游走的思想結合起來。該模型通過跳過圖中的某些節點來修改DeepWalk中使用的隨機游走策略。這是針對多個尺度的跳躍長度執行的,類似于在GraRep中分解

,并且隨機行走獲得的一組點的序列用于訓練類似于DeepWalk的模型。

4、基于深度學習的方法

4.1. Structural deep network embedding (SDNE)

SDNE建議使用深度自動編碼器來保持一階和二階網絡鄰近度。它通過聯合優化這兩個近似值來實現這一點。該方法利用高度非線性函數來獲得嵌入。模型由兩部分組成:無監督和監督。前者包括一個自動編碼器,目的是尋找一個可以重構其鄰域的節點的嵌入。后者基于拉普拉斯特征映射,當相似頂點在嵌入空間中彼此映射得很遠時,該特征映射會受到懲罰。

4.2. Deep neural networks for learning graph representations (DNGR)

DNGR結合了隨機游走和深度自動編碼器。該模型由3部分組成:隨機游走、正點互信息(PPMI)計算和疊加去噪自編碼器。在輸入圖上使用隨機游走模型生成概率共現矩陣,類似于HOPE中的相似矩陣。將該矩陣轉化為PPMI矩陣,輸入到疊加去噪自動編碼器中得到嵌入。輸入PPMI矩陣保證了自動編碼器模型能夠捕獲更高階的近似度。此外,使用疊加去噪自動編碼器有助于模型在圖中存在噪聲時的魯棒性,以及捕獲任務(如鏈路預測和節點分類)所需的底層結構。

4.3. Graph convolutional networks (GCN)

上面討論的基于深度神經網絡的方法,即SDNE和DNGR,以每個節點的全局鄰域(一行DNGR的PPMI和SDNE的鄰接矩陣)作為輸入。對于大型稀疏圖來說,這可能是一種計算代價很高且不適用的方法。圖卷積網絡(GCN)通過在圖上定義卷積算子來解決這個問題。該模型迭代地聚合了節點的鄰域嵌入,并使用在前一次迭代中獲得的嵌入及其嵌入的函數來獲得新的嵌入。僅局部鄰域的聚合嵌入使其具有可擴展性,并且多次迭代允許學習嵌入一個節點來描述全局鄰域。最近幾篇論文提出了利用圖上的卷積來獲得半監督嵌入的方法,這種方法可以通過為每個節點定義唯一的標簽來獲得無監督嵌入。這些方法在卷積濾波器的構造上各不相同,卷積濾波器可大致分為空間濾波器和譜濾波器。空間濾波器直接作用于原始圖和鄰接矩陣,而譜濾波器作用于拉普拉斯圖的譜。

4.4. Variational graph auto-encoders (VGAE)

VGAE采用了圖形卷積網絡(GCN)編碼器和內積譯碼器。輸入是鄰接矩陣,它們依賴于GCN來學習節點之間的高階依賴關系。他們的經驗表明,與非概率自編碼器相比,使用變分自編碼器可以提高性能。

5、其他

LINE

LINE適用于任意類型的信息網絡:無向、有向和無權、有權。該方法優化了精心設計的目標函數,能夠保留局部和全局網絡結構。此外,LINE中還提出了邊緣采樣算法,解決了經典隨機梯度下降的局限性,提高了算法的有效性和效率。具體來說,LINE明確定義了兩個函數,分別用于一階和二階近似,并最小化了這兩個函數的組合。一階鄰近函數與圖分解(GF)相似,都是為了保持嵌入的鄰接矩陣和點積接近。區別在于GF通過直接最小化兩者的差異來實現這一點。相反,LINE為每對頂點定義了兩個聯合概率分布,一個使用鄰接矩陣,另一個使用嵌入。然后,LINE最小化了這兩個分布的Kullback–Leibler(KL)散度。這兩個分布和目標函數如下:

作者用和上面相似的方法定義了二階近似的概率分布和目標函數:

為簡單起見,將λi設置為頂點i的度數,即λi= di。同樣采用KL散度作為距離函數, 用KL散度代替d(·,·)。再省略一些常數,得到:

參考文獻

[1] Goyal P , Ferrara E . Graph Embedding Techniques, Applications, and Performance: A Survey[J]. Knowledge-Based Systems, 2017.

[2] Roweis, S. T . Nonlinear Dimensionality Reduction by Locally Linear Embedding[J]. Science, 2000, 290(5500):2323-2326.

[3] Perozzi B , Al-Rfou R , Skiena S . DeepWalk: Online Learning of Social Representations[J]. 2014.

[4] Grover A , Leskovec J . node2vec: Scalable Feature Learning for Networks[J]. Kdd, 2016.

[5] Wang D , Cui P , Zhu W . Structural Deep Network Embedding[C]// the 22nd ACM SIGKDD International Conference. ACM, 2016.

[6] Tang J , Qu M , Wang M , et al. LINE: Large-scale information network embedding[J]. 24th International Conference on World Wide Web, WWW 2015, 2015.

總結

以上是生活随笔為你收集整理的随机邻域嵌入_图嵌入(Graph embedding)综述的全部內容,希望文章能夠幫你解決所遇到的問題。

如果覺得生活随笔網站內容還不錯,歡迎將生活随笔推薦給好友。