日韩性视频-久久久蜜桃-www中文字幕-在线中文字幕av-亚洲欧美一区二区三区四区-撸久久-香蕉视频一区-久久无码精品丰满人妻-国产高潮av-激情福利社-日韩av网址大全-国产精品久久999-日本五十路在线-性欧美在线-久久99精品波多结衣一区-男女午夜免费视频-黑人极品ⅴideos精品欧美棵-人人妻人人澡人人爽精品欧美一区-日韩一区在线看-欧美a级在线免费观看

歡迎訪問 生活随笔!

生活随笔

當(dāng)前位置: 首頁(yè) > 编程资源 > 编程问答 >内容正文

编程问答

图嵌入 (Graph Embedding)

發(fā)布時(shí)間:2024/1/18 编程问答 35 豆豆
生活随笔 收集整理的這篇文章主要介紹了 图嵌入 (Graph Embedding) 小編覺得挺不錯(cuò)的,現(xiàn)在分享給大家,幫大家做個(gè)參考.
  • 圖嵌入
    • Random Walk
    • Matrix Fractorization
    • Meta Paths
    • Deep Learning
    • Others
  • 開放資源
    • 開源實(shí)現(xiàn)
    • 論文列表和評(píng)測(cè)

?圖(Graph / Network)數(shù)據(jù)類型可以自然地表達(dá)物體和物體之間的聯(lián)系,在我們的日常生活與工作中無處不在。例如:微信和新浪微博等構(gòu)成了人與人之間的社交網(wǎng)絡(luò);互聯(lián)網(wǎng)上成千上萬(wàn)個(gè)頁(yè)面構(gòu)成了網(wǎng)頁(yè)鏈接網(wǎng)絡(luò);國(guó)家城市間的運(yùn)輸交通構(gòu)成了物流網(wǎng)絡(luò)。?

?圖片來源:The power of relationships in data

?通常定義一個(gè)圖?G=(V,E),其中?V?為頂點(diǎn)(Vertices)集合,E?為邊(Edges)集合。對(duì)于一條邊?e=u,v?包含兩個(gè)端點(diǎn)(Endpoints)?u?和?v,同時(shí)?u?可以稱為?v?的鄰居(Neighbor)。當(dāng)所有的邊為有向邊時(shí),圖稱之為有向(Directed)圖,當(dāng)所有邊為無向邊時(shí),圖稱之為無向(Undirected)圖。對(duì)于一個(gè)頂點(diǎn)?v,令?d(v)?表示連接的邊的數(shù)量,稱之為度(Degree)。對(duì)于一個(gè)圖?G=(V,E),其鄰接矩陣(Adjacency Matrix)?A∈A|V|×|V|?定義為:

作為一個(gè)典型的非歐式數(shù)據(jù),對(duì)于圖數(shù)據(jù)的分析主要集中在節(jié)點(diǎn)分類,鏈接預(yù)測(cè)和聚類等。對(duì)于圖數(shù)據(jù)而言,圖嵌入(Graph / Network Embedding)圖神經(jīng)網(wǎng)絡(luò)(Graph Neural Networks, GNN)是兩個(gè)類似的研究領(lǐng)域。圖嵌入旨在將圖的節(jié)點(diǎn)表示成一個(gè)低維向量空間,同時(shí)保留網(wǎng)絡(luò)的拓?fù)浣Y(jié)構(gòu)和節(jié)點(diǎn)信息,以便在后續(xù)的圖分析任務(wù)中可以直接使用現(xiàn)有的機(jī)器學(xué)習(xí)算法。一些基于深度學(xué)習(xí)的圖嵌入同時(shí)也屬于圖神經(jīng)網(wǎng)絡(luò),例如一些基于圖自編碼器和利用無監(jiān)督學(xué)習(xí)的圖卷積神經(jīng)網(wǎng)絡(luò)等。下圖描述了圖嵌入和圖神經(jīng)網(wǎng)絡(luò)之間的差異:

本文中圖嵌入網(wǎng)絡(luò)表示學(xué)習(xí)均表示 Graph / Network Embedding。

圖嵌入

本節(jié)內(nèi)容主要參考自:
A Comprehensive Survey of Graph Embedding: Problems, Techniques and Applications?1
Graph Embedding Techniques, Applications, and Performance: A Survey?2
Representation Learning on Graphs: Methods and Applications?3

使用鄰接矩陣的網(wǎng)絡(luò)表示存在計(jì)算效率的問題,鄰接矩陣?A?使用?|V|×|V|?的存儲(chǔ)空間表示一個(gè)圖,隨著節(jié)點(diǎn)個(gè)數(shù)的增長(zhǎng),這種表示所需的空間成指數(shù)增長(zhǎng)。同時(shí),在鄰接矩陣中絕大多數(shù)是 0,數(shù)據(jù)的稀疏性使得快速有效的學(xué)習(xí)方式很難被應(yīng)用。

網(wǎng)路表示學(xué)習(xí)是指學(xué)習(xí)得到網(wǎng)絡(luò)中節(jié)點(diǎn)的低維向量表示,形式化地,網(wǎng)絡(luò)表示學(xué)習(xí)的目標(biāo)是對(duì)每個(gè)節(jié)點(diǎn)?v∈V?學(xué)習(xí)一個(gè)實(shí)值向量?Rv∈Rk,其中?k?|V|?表示向量的維度。經(jīng)典的 Zachary’s karate club 網(wǎng)絡(luò)的嵌入可視化如下圖所示

?

Random Walk

基于隨機(jī)游走的圖嵌入通過使得圖上一個(gè)短距的隨機(jī)游走中共現(xiàn)的節(jié)點(diǎn)具有更相似的表示的方式來優(yōu)化節(jié)點(diǎn)的嵌入。

DeepWalk

?DeepWalk?4?算法主要包含兩個(gè)部分:一個(gè)隨機(jī)游走序列生成器和一個(gè)更新過程。隨機(jī)游走序列生成器首先在圖?G?中均勻地隨機(jī)抽樣一個(gè)隨機(jī)游走?Wvi?的根節(jié)點(diǎn)?vi,接著從節(jié)點(diǎn)的鄰居中均勻地隨機(jī)抽樣一個(gè)節(jié)點(diǎn)直到達(dá)到設(shè)定的最大長(zhǎng)度?t。對(duì)于一個(gè)生成的以?vi?為中心左右窗口為?w?的隨機(jī)游走序列?vi?w,…,vi?1,vi,vi+1,…,vi+m,DeepWalk 利用 SkipGram 算法通過最大化以?vi?為中心,左右?w?為窗口的同其他節(jié)點(diǎn)共現(xiàn)概率來優(yōu)化模型:

?DeepWalk 和 Word2Vec 的類比如下表所示:

node2vec?

?node2vec?5?通過改變隨機(jī)游走序列生成的方式進(jìn)一步擴(kuò)展了 DeepWalk 算法。DeepWalk 選取隨機(jī)游走序列中下一個(gè)節(jié)點(diǎn)的方式是均勻隨機(jī)分布的,而 node2vec 通過引入兩個(gè)參數(shù)?p?和?q,將寬度優(yōu)先搜索深度優(yōu)先搜索引入了隨機(jī)游走序列的生成過程。 寬度優(yōu)先搜索注重鄰近的節(jié)點(diǎn)并刻畫了相對(duì)局部的一種網(wǎng)絡(luò)表示, 寬度優(yōu)先中的節(jié)點(diǎn)一般會(huì)出現(xiàn)很多次,從而降低刻畫中心節(jié)點(diǎn)的鄰居節(jié)點(diǎn)的方差, 深度優(yōu)先搜索反映了更高層面上的節(jié)點(diǎn)之間的同質(zhì)性。

node2vec 中的兩個(gè)參數(shù)?p?和?q?控制隨機(jī)游走序列的跳轉(zhuǎn)概率。假設(shè)上一步游走的邊為?(t,v), 那么對(duì)于節(jié)點(diǎn)?v?的不同鄰居,node2vec 根據(jù)?p?和?q?定義了不同的鄰居的跳轉(zhuǎn)概率,p?控制跳向上一個(gè)節(jié)點(diǎn)的鄰居的概率,q?控制跳向上一個(gè)節(jié)點(diǎn)的非鄰居的概率,具體的未歸一的跳轉(zhuǎn)概率值如下所示:?

其中,表示節(jié)點(diǎn)?t?和?x?之間的最短距離。為了獲得最優(yōu)的超參數(shù)?p?和?q?的取值,node2vec 通過半監(jiān)督形式,利用網(wǎng)格搜索最合適的參數(shù)學(xué)習(xí)節(jié)點(diǎn)表示。?

APP

之前的基于隨機(jī)游走的圖嵌入方法,例如:DeepWalk,node2vec 等,都無法保留圖中的非對(duì)稱信息。然而非對(duì)稱性在很多問題,例如:社交網(wǎng)絡(luò)中的鏈路預(yù)測(cè)、電商中的推薦等,中至關(guān)重要。在有向圖和無向圖中,非對(duì)稱性如下圖所示:

為了保留圖的非對(duì)稱性,對(duì)于每個(gè)節(jié)點(diǎn)?v?設(shè)置兩個(gè)不同的角色:源和目標(biāo),分別用?sv→?和?tv→?表示。對(duì)于每個(gè)從?u?開始以?v?結(jié)尾的采樣序列,利用?(u,v)?表示采樣的節(jié)點(diǎn)對(duì)。則利用源節(jié)點(diǎn)?u?預(yù)測(cè)目標(biāo)節(jié)點(diǎn)?v?的概率如下:

通過 Skip-Gram 和負(fù)采樣對(duì)模型進(jìn)行優(yōu)化,損失函數(shù)如下:?

其中,我們根據(jù)分布?PD(n)~1|V|?隨機(jī)負(fù)采樣?k?個(gè)節(jié)點(diǎn)對(duì),為采樣的?(u,v)?對(duì)的個(gè)數(shù),σ?為 sigmoid 函數(shù)。通常情況下,#Sampledu(v)≠#Sampledv(u),即?(u,v)?和?(v,u)?的觀測(cè)數(shù)量是不同的。模型利用 Monte-Carlo End-Point 采樣方法?6?隨機(jī)的以?v?為起點(diǎn)和?α?為停止概率采樣?p?條路徑。這種采樣方式可以用于估計(jì)任意一個(gè)節(jié)點(diǎn)對(duì)之間的 Rooted PageRank?7?值,模型利用這個(gè)值估計(jì)由?v?到達(dá)?u?的概率。?

Matrix Fractorization

GraRep

GraRep?8?提出了一種基于矩陣分解的圖嵌入方法。對(duì)于一個(gè)圖?G,利用鄰接矩陣?S?定義圖的度矩陣:

則一階轉(zhuǎn)移概率矩陣定義如下:

?

其中,Ai,j?表示通過一步由?vi?轉(zhuǎn)移到?vj?的概率。所謂的全局特征包含兩個(gè)部分:

  • 捕獲兩個(gè)節(jié)點(diǎn)之間的長(zhǎng)距離特征
  • 分別考慮按照不同轉(zhuǎn)移步數(shù)的連接
  • 下圖展示了?k=1,2,3,4?情況下的強(qiáng)(上)弱(下)關(guān)系:?

    ?

    利用 Skip-Gram 和 NCE(noise contrastive estimation)方法,對(duì)于一個(gè)?k?階轉(zhuǎn)移,可以將模型歸結(jié)到一個(gè)矩陣?Yi,jk?的分解問題:

    其中,W?和?C?的每一行分別為節(jié)點(diǎn)?w?和?c?的表示,β=λ/N,λ?為負(fù)采樣的數(shù)量,N?為圖中邊的個(gè)數(shù)。

    之后為了減少噪音,模型將?Yk?中所有的負(fù)值替換為 0,通過 SVD(方法詳情見參見之前博客)得到節(jié)點(diǎn)的?d?維表示:

    ?最終,通過對(duì)不同?k?的表示進(jìn)行拼接得到節(jié)點(diǎn)最終的表示。

    HOPE

    HOPE?9?對(duì)于每個(gè)節(jié)點(diǎn)最終生成兩個(gè)嵌入表示:一個(gè)是作為源節(jié)點(diǎn)的嵌入表示,另一個(gè)是作為目標(biāo)節(jié)點(diǎn)的嵌入表示。模型通過近似高階相似性來保留非對(duì)稱傳遞性,其優(yōu)化目標(biāo)為:

    其中,S?為相似矩陣,和分別為源節(jié)點(diǎn)和目標(biāo)節(jié)點(diǎn)的向量表示。下圖展示了嵌入向量可以很好的保留非對(duì)稱傳遞性:

    對(duì)于?S?有多種可選近似度量方法:Katz Index,Rooted PageRank(RPR),Common Neighbors(CN),Adamic-Adar(AA)。這些度量方法可以分為兩類:全局近似(Katz Index 和 RPR)和局部近似(CN 和 AA)。

    算法采用了一個(gè)廣義 SVD 算法(JDGSVD)來解決使用原始 SVD 算法計(jì)算復(fù)雜度為過高的問題,從而使得算法可以應(yīng)用在更大規(guī)模的圖上。

    ?

    Meta Paths

    matapath2vec

    matapath2vec?10?提出了一種基于元路徑的異構(gòu)網(wǎng)絡(luò)表示學(xué)習(xí)方法。在此我們引入 3 個(gè)定義:

  • 異構(gòu)網(wǎng)絡(luò)((Heterogeneous information network,HIN)可以定義為一個(gè)有向圖 ,一個(gè)節(jié)點(diǎn)類型映射和一個(gè)邊類型映射,其中對(duì)于 有 ,有??(e)∈R,且?|A|+|R|>1。
  • 網(wǎng)絡(luò)模式(Network schema)定義為,為一個(gè)包含節(jié)點(diǎn)類型映射 和邊映射??(e)∈R?異構(gòu)網(wǎng)絡(luò)的?的元模板。
  • 元路徑(Meta-path)定義為網(wǎng)絡(luò)模式??上的一條路徑?P,形式為?
  • 下圖展示了一個(gè)學(xué)術(shù)網(wǎng)絡(luò)和部分元路徑:

    ?

    ?

    ?

    ?

    其中,APA 表示一篇論文的共同作者,APVPA 表示兩個(gè)作者在同一個(gè)地方發(fā)表過論文。

    metapath2vec 采用了基于元路徑的隨機(jī)游走來生成采樣序列,這樣就可以保留原始網(wǎng)絡(luò)中的語(yǔ)義信息。對(duì)于一個(gè)給定的元路徑模板,第?i?步的轉(zhuǎn)移概率為:

    其中,表示節(jié)點(diǎn)類型為的鄰居。之后,則采用了類似 DeepWalk 的方式進(jìn)行訓(xùn)練得到節(jié)點(diǎn)表示。?

    HIN2Vec

    HIN2Vec?11?提出了一種利用多任務(wù)學(xué)習(xí)通過多種關(guān)系進(jìn)行節(jié)點(diǎn)和元路徑表示學(xué)習(xí)的方法。模型最初是希望通過一個(gè)多分類模型來預(yù)測(cè)任意兩個(gè)節(jié)點(diǎn)之間所有可能的關(guān)系。假設(shè)對(duì)于任意兩個(gè)節(jié)點(diǎn),所有可能的關(guān)系集合為

    假設(shè)一個(gè)實(shí)例和?包含兩種關(guān)系:P-A?和?P-P-A,則對(duì)應(yīng)的訓(xùn)練數(shù)據(jù)為

    但實(shí)際上,掃描整個(gè)網(wǎng)絡(luò)尋找所有可能的關(guān)系是不現(xiàn)實(shí)的,因此 HIN2Vec 將問題簡(jiǎn)化為一個(gè)給定兩個(gè)節(jié)點(diǎn)判斷之間是否存在一個(gè)關(guān)系的二分類問題,如下圖所示:

    模型的三個(gè)輸入分別為節(jié)點(diǎn)?x?和?y,以及關(guān)系?r。在隱含層輸入被轉(zhuǎn)換為向量和 。需要注意對(duì)于關(guān)系?r,模型應(yīng)用了一個(gè)正則化函數(shù)使得?r?的向量介于?0?和?1?之間。之后采用逐元素相乘對(duì)三個(gè)向量進(jìn)行匯總 。在最后的輸出層,通過計(jì)算得到最終的預(yù)測(cè)值。?

    在生成訓(xùn)練數(shù)據(jù)時(shí),HIN2Vec 采用了完全隨機(jī)游走進(jìn)行節(jié)點(diǎn)采樣,而非 metapath2vec 中的按照給定的元路徑的方式。通過隨機(jī)替換?x,y,r?中的任何一個(gè)可以生成負(fù)樣本,但當(dāng)網(wǎng)絡(luò)中的關(guān)系數(shù)量較少,節(jié)點(diǎn)數(shù)量遠(yuǎn)遠(yuǎn)大于關(guān)系數(shù)量時(shí),這種方式很可能產(chǎn)生錯(cuò)誤的負(fù)樣本,因此 HIN2Vec 只隨機(jī)替換?x,y,保持?r?不變。

    Deep Learning

    SDNE

    SDNE?12?提出了一種利用自編碼器同時(shí)優(yōu)化一階和二階相似度的圖嵌入算法,學(xué)習(xí)得到的向量能夠保留局部和全局的結(jié)構(gòu)信息。SDNE 使用的網(wǎng)絡(luò)結(jié)構(gòu)如下圖所示:

    對(duì)于二階相似度,自編碼器的目標(biāo)是最小化輸入和輸出的重構(gòu)誤差。SDNE 采用鄰接矩陣作為自編碼器的輸入,,每個(gè)包含了節(jié)點(diǎn) 的鄰居結(jié)構(gòu)信息。模型的損失函數(shù)如下:?

    由于網(wǎng)絡(luò)的稀疏性,鄰接矩陣中的非零元素遠(yuǎn)遠(yuǎn)少于零元素,因此模型采用了一個(gè)帶權(quán)的損失函數(shù):

    ?

    其中,⊙?表示按位乘,,如果?si,j=0?則?bi,j=1?否則?bi,j=β>1。

    對(duì)于一階相似度,模型利用了一個(gè)監(jiān)督學(xué)習(xí)模塊最小化節(jié)點(diǎn)在隱含空間中距離。損失函數(shù)如下:

    最終,模型聯(lián)合損失函數(shù)如下:

    ?

    DNGR

    DNGR?13?提出了一種利用基于 Stacked Denoising Autoencoder(SDAE)提取特征的網(wǎng)絡(luò)表示學(xué)習(xí)算法。算法的流程如下圖所示:

    ?

    ?

    ?

    模型首先利用 Random Surfing 得到一個(gè)概率共現(xiàn)(PCO)矩陣,之后利用其計(jì)算得到 PPMI 矩陣,最后利用 SDAE 進(jìn)行特征提取得到節(jié)點(diǎn)的向量表示。

    對(duì)于傳統(tǒng)的將圖結(jié)構(gòu)轉(zhuǎn)換為一個(gè)線性序列方法存在幾點(diǎn)缺陷:

  • 采樣序列邊緣的節(jié)點(diǎn)的上下文信息很難被捕捉。
  • 很難直接確定游走的長(zhǎng)度和步數(shù)等超參數(shù),尤其是對(duì)于大型網(wǎng)絡(luò)來說。
  • 受 PageRank 思想影響,作者采用了 Random Surfing 模型。定義轉(zhuǎn)移矩陣?A,引入行向量?pk,第?j?個(gè)元素表示通過?k?步轉(zhuǎn)移之后到達(dá)節(jié)點(diǎn)?j?的概率。p0?為一個(gè)初始向量,其僅第?i?個(gè)元素為 1,其它均為 0。在考慮以?1?α?的概率返回初始節(jié)點(diǎn)的情況下有:

    在不考慮返回初始節(jié)點(diǎn)的情況下有:?

    直觀而言,兩個(gè)節(jié)點(diǎn)越近,兩者的關(guān)系越親密,因此通過同當(dāng)前節(jié)點(diǎn)的相對(duì)距離來衡量上下文節(jié)點(diǎn)的重要性是合理的。基于此,第?i?個(gè)節(jié)點(diǎn)的表示可以用如下方式構(gòu)造:

    ?其中,w(?)?是一個(gè)衰減函數(shù)。

    利用 PCO 計(jì)算得到 PPMI 后,再利用一個(gè) SDAE 進(jìn)行特征提取。Stacking 策略可以通過不同的網(wǎng)絡(luò)層學(xué)習(xí)得到不同層級(jí)的表示,Denoising 策略則通過去除數(shù)據(jù)中的噪聲,增加結(jié)果的魯棒性。同時(shí),SNGR 相比基于 SVD 的方法效率更高。

    Others

    LINE

    LINE?14?提出了一個(gè)用于大規(guī)模網(wǎng)絡(luò)嵌入的方法,其滿足如下 3 個(gè)要求:

  • 同時(shí)保留節(jié)點(diǎn)之間的一階相似性(first-order proximity)和二階相似性(second-order proximity)。
  • 可以處理大規(guī)模網(wǎng)絡(luò),例如:百萬(wàn)級(jí)別的頂點(diǎn)和十億級(jí)別的邊。
  • 可以處理有向,無向和帶權(quán)的多種類型的圖結(jié)構(gòu)。
  • 給定一個(gè)無向邊?(i,j),點(diǎn)?vi?和?vj?的聯(lián)合概率如下:

    其中, 為節(jié)點(diǎn)?vi?的低維向量表示。在空間?V×V?上,分布?p(?,?)?的經(jīng)驗(yàn)概率為 ,其中 。通過最小化兩個(gè)分布的 KL 散度來優(yōu)化模型,則目標(biāo)函數(shù)定義如下:?

    需要注意的是一階相似度僅可用于無向圖,通過最小化上述目標(biāo)函數(shù),我們可以將任意頂點(diǎn)映射到一個(gè)?d?維空間向量。

    二階相似度既可以用于無向圖,也可以用于有向圖。二階相似度假設(shè)共享大量同其他節(jié)點(diǎn)連接的節(jié)點(diǎn)之間是相似的,每個(gè)節(jié)點(diǎn)被視為一個(gè)特定的上下文,則在上下文上具有類似分布的節(jié)點(diǎn)是相似的。

    在此,引入兩個(gè)向量 和 ,其中是?vi?做為節(jié)點(diǎn)的表示,是?vi?做為上下文的表示。對(duì)于一個(gè)有向邊?(i,j),由?vi?生成上下文?vj?的概率為:

    ?其中,|V|?為節(jié)點(diǎn)或上下文的數(shù)量。在此我們引入一個(gè)參數(shù)?λi?用于表示節(jié)點(diǎn)?vi?的重要性程度,重要性程度可以利用度或者 PageRank 算法進(jìn)行估計(jì)。經(jīng)驗(yàn)分布定義為,其中? 為邊?(i,j)?的權(quán)重,di?為節(jié)點(diǎn)?vi?的出度。LINE 中采用?di?作為節(jié)點(diǎn)的重要性?λi,利用 KL 散度同時(shí)忽略一些常量,目標(biāo)函數(shù)定義如下:

    ?LINE 采用負(fù)采樣的方式對(duì)模型進(jìn)行優(yōu)化,同時(shí)利用 Alias 方法?15?16?加速采樣過程。

    ?

    開放資源

    開源實(shí)現(xiàn)

    項(xiàng)目框架
    rusty1s/pytorch_geometricPyTorch
    dmlc/dglPyTorch,?TF?&?MXNet
    alibaba/eulerTF
    alibaba/graph-learnTF
    deepmind/graph_netsTF?&?Sonnet
    facebookresearch/PyTorch-BigGraphPyTorch
    tencent/plato
    PaddlePaddle/PGL?PaddlePaddle
    Accenture/AmpliGraphTF
    danielegrattarola/spektralTF
    THUDM/cogdlPyTorch
    DeepGraphLearning/graphvitePyTorch

    論文列表和評(píng)測(cè)

    • Must-read papers on network representation learning (NRL) / network embedding (NE)
    • Must-read papers on graph neural networks (GNN)
    • DeepGraphLearning/LiteratureDL4Graph
    • nnzhan/Awesome-Graph-Neural-Networks
    • graphdeeplearning/benchmarking-gnns
    • Open Graph Benchmark

    ?

  • Cai, H., Zheng, V. W., & Chang, K. C. C. (2018). A comprehensive survey of graph embedding: Problems, techniques, and applications.?IEEE Transactions on Knowledge and Data Engineering, 30(9), 1616-1637.??
  • Goyal, P., & Ferrara, E. (2018). Graph embedding techniques, applications, and performance: A survey.?Knowledge-Based Systems, 151, 78-94.??
  • Hamilton, W. L., Ying, R., & Leskovec, J. (2017). Representation learning on graphs: Methods and applications.?arXiv preprint arXiv:1709.05584.??
  • Perozzi, B., Al-Rfou, R., & Skiena, S. (2014). Deepwalk: Online learning of social representations. In?Proceedings of the 20th ACM SIGKDD international conference on Knowledge discovery and data mining?(pp. 701-710).??
  • Grover, A., & Leskovec, J. (2016). node2vec: Scalable feature learning for networks. In?Proceedings of the 22nd ACM SIGKDD international conference on Knowledge discovery and data mining?(pp. 855-864).??
  • Fogaras, D., Rácz, B., Csalogány, K., & Sarlós, T. (2005). Towards scaling fully personalized pagerank: Algorithms, lower bounds, and experiments.?Internet Mathematics, 2(3), 333-358.??
  • Haveliwala, T. H. (2002). Topic-sensitive PageRank. In?Proceedings of the 11th international conference on World Wide Web?(pp. 517-526).??
  • Cao, S., Lu, W., & Xu, Q. (2015). Grarep: Learning graph representations with global structural information. In?Proceedings of the 24th ACM international on conference on information and knowledge management?(pp. 891-900).??
  • Ou, M., Cui, P., Pei, J., Zhang, Z., & Zhu, W. (2016). Asymmetric transitivity preserving graph embedding. In?Proceedings of the 22nd ACM SIGKDD international conference on Knowledge discovery and data mining?(pp. 1105-1114).??
  • Dong, Y., Chawla, N. V., & Swami, A. (2017). metapath2vec: Scalable representation learning for heterogeneous networks. In?Proceedings of the 23rd ACM SIGKDD international conference on knowledge discovery and data mining?(pp. 135-144).??
  • Fu, T. Y., Lee, W. C., & Lei, Z. (2017). Hin2vec: Explore meta-paths in heterogeneous information networks for representation learning. In?Proceedings of the 2017 ACM on Conference on Information and Knowledge Management?(pp. 1797-1806).??
  • Wang, D., Cui, P., & Zhu, W. (2016). Structural deep network embedding. In?Proceedings of the 22nd ACM SIGKDD international conference on Knowledge discovery and data mining?(pp. 1225-1234).??
  • Cao, S., Lu, W., & Xu, Q. (2016). Deep neural networks for learning graph representations. In?Thirtieth AAAI conference on artificial intelligence.??
  • Tang, J., Qu, M., Wang, M., Zhang, M., Yan, J., & Mei, Q. (2015). Line: Large-scale information network embedding. In?Proceedings of the 24th international conference on world wide web?(pp. 1067-1077).??
  • Walker, A. J. (1974). New fast method for generating discrete random numbers with arbitrary frequency distributions.?Electronics Letters, 10(8), 127-128.??
  • Walker, A. J. (1977). An efficient method for generating discrete random variables with general distributions.?ACM Transactions on Mathematical Software (TOMS), 3(3), 253-256.??
  • ?

    ?

    總結(jié)

    以上是生活随笔為你收集整理的图嵌入 (Graph Embedding)的全部?jī)?nèi)容,希望文章能夠幫你解決所遇到的問題。

    如果覺得生活随笔網(wǎng)站內(nèi)容還不錯(cuò),歡迎將生活随笔推薦給好友。