DeepWalk 和 Node2Vec
DeepWalk#
與詞嵌入類似,圖嵌入基本理念是基于相鄰頂點(diǎn)的關(guān)系,將目的頂點(diǎn)映射為稠密向量,以數(shù)值化的方式表達(dá)圖中的信息,以便在下游任務(wù)中運(yùn)用。
Word2Vec根據(jù)詞與詞的共現(xiàn)關(guān)系學(xué)習(xí)向量的表示,DeepWalk受其啟發(fā)。它通過隨機(jī)游走的方式提取頂點(diǎn)序列,再用Word2Vec模型根據(jù)頂點(diǎn)和頂點(diǎn)的共現(xiàn)關(guān)系,學(xué)習(xí)頂點(diǎn)的向量表示。可以理解為用文字把圖的內(nèi)容表達(dá)出來,如下圖所示。
DeepWalk訓(xùn)練圖表示的整個(gè)過程大致可以分為2步:
訓(xùn)練時(shí)采用層次Softmax(Hierarchical Softmax)優(yōu)化算法,避免計(jì)算所有詞的softmax。
https://www.hankcs.com/nlp/word2vec.html
https://www.cnblogs.com/pinard/p/7243513.html
Node2Vec#
DeepWalk不適用于有權(quán)圖,它無法學(xué)習(xí)邊上的權(quán)重信息。Node2Vec可以看作DeepWalk的擴(kuò)展,它學(xué)習(xí)嵌入的過程也可以分兩步:
可以看到與DeepWalk的區(qū)別就在于游走的方式,在二階隨機(jī)游走中,轉(zhuǎn)移概率?πvxπvx?受權(quán)值?wvxwvx?影響(無權(quán)圖中wvxwvx為1):
算法通過pp、qq兩個(gè)超參數(shù)來控制游走到不同頂點(diǎn)的概率。以下圖為例,圖中闡述了從上一頂點(diǎn)?tt?游走到當(dāng)前頂點(diǎn)?vv,準(zhǔn)備估計(jì)如何游走到下一個(gè)頂點(diǎn)的過程。
- qq:控制“向內(nèi)”還是“向外”游走。若q>1q>1,傾向于訪問與?tt?接近的頂點(diǎn),若?q<1q<1?則傾向于訪問遠(yuǎn)離?tt?的頂點(diǎn)。
- pp:控制重復(fù)訪問剛剛訪問過的頂點(diǎn)的概率。若設(shè)置的值較大,就不大會(huì)剛問剛剛訪問過的頂點(diǎn)。若設(shè)置的值較小,那就可能回路返回一步。
還有一個(gè)值得注意的地方,與DeepWalk不同,Node2Vec在提取頂點(diǎn)序列時(shí),不再是簡(jiǎn)單地隨機(jī)取鄰居頂點(diǎn),而是采用了Alias算法。
Alias采樣是為了加快采樣速度,初始化后的采樣時(shí)間復(fù)雜度為O(1)O(1),但需要存儲(chǔ) accept 和 alias 兩個(gè)數(shù)組,空間復(fù)雜度為O(2N)O(2N)。這里簡(jiǎn)單介紹一下。
給定如下離散概率分布,有?NN個(gè) (這里是4)可能發(fā)生的事件。每列矩形面積表示該事件發(fā)生的概率,柱狀圖中所有矩形的面積之和為 1。
將每個(gè)事件的發(fā)生的概率乘以?NN,此時(shí)會(huì)有部分矩形的面積大于1,部分矩形的面積小于1。切割面積大于1的矩形,填補(bǔ)到面積小于1的矩形上,并且每一列至多由兩個(gè)事件的矩形構(gòu)成,最終組成一個(gè)面積為?1×N1×N?的矩形。
再根據(jù)這個(gè)矩形,轉(zhuǎn)換成相應(yīng)的Accept表和Alias表。
Node2Vec在隨機(jī)游走之前會(huì)進(jìn)行初始化,獲取 alias_nodes 和 alias_edges 。alias_nodes 存儲(chǔ)每個(gè)頂點(diǎn)決定下一個(gè)訪問的點(diǎn)所需要的alias表,alias_edges則存儲(chǔ)由(t,v)(t,v)邊訪問到頂點(diǎn)vv的時(shí)候決定下一個(gè)訪問點(diǎn)所需要的alias表。
alias_nodes與alias_edges的差別在于,alias_nodes不考慮當(dāng)前頂點(diǎn)之前訪問的頂點(diǎn),它用在游走最開始的時(shí)候,此時(shí)沒有“上一個(gè)頂點(diǎn)”。
關(guān)于 alias 采樣算法更詳細(xì)的內(nèi)容,可以參考下面兩個(gè)鏈接。
https://shomy.top/2017/05/09/alias-method-sampling/
https://blog.csdn.net/manmanxiaowugun/article/details/90170193
后面就跟DeepWalk一樣了,但是原作者在訓(xùn)練Word2Vec模型的時(shí)候,沒有采用層次Softmax。
代碼#
Copy
https://gitee.com/dogecheng/python/blob/master/graph/DeepWalk_and_Node2Vec.ipynb
DeepWalk 可視化
Node2Vec 可視化
參考資料#
騰訊安全威脅情報(bào)中心“明廚亮灶”工程:基于域名圖譜嵌入的惡意域名挖掘
DeepWalk: Online Learning of Social Representations
node2vec: Scalable Feature Learning for Networks
【Graph Embedding】DeepWalk:算法原理,實(shí)現(xiàn)和應(yīng)用
【Graph Embedding】node2vec:算法原理,實(shí)現(xiàn)和應(yīng)用
node2vec隨機(jī)游走實(shí)現(xiàn)思路
Alias Method離散分布隨機(jī)取樣
理解node2vec
node2vec
?
總結(jié)
以上是生活随笔為你收集整理的DeepWalk 和 Node2Vec的全部?jī)?nèi)容,希望文章能夠幫你解決所遇到的問題。
- 上一篇: window环境中Jupyter not
- 下一篇: neo4j查询节点与相应的边的方法