日韩性视频-久久久蜜桃-www中文字幕-在线中文字幕av-亚洲欧美一区二区三区四区-撸久久-香蕉视频一区-久久无码精品丰满人妻-国产高潮av-激情福利社-日韩av网址大全-国产精品久久999-日本五十路在线-性欧美在线-久久99精品波多结衣一区-男女午夜免费视频-黑人极品ⅴideos精品欧美棵-人人妻人人澡人人爽精品欧美一区-日韩一区在线看-欧美a级在线免费观看

歡迎訪問 生活随笔!

生活随笔

當前位置: 首頁 > 编程资源 > 编程问答 >内容正文

编程问答

SIGIR 2019 开源论文 | 基于图神经网络的协同过滤算法

發(fā)布時間:2024/10/8 编程问答 41 豆豆
生活随笔 收集整理的這篇文章主要介紹了 SIGIR 2019 开源论文 | 基于图神经网络的协同过滤算法 小編覺得挺不錯的,現(xiàn)在分享給大家,幫大家做個參考.

作者丨紀厚業(yè)

單位丨北京郵電大學博士生

研究方向丨異質(zhì)圖神經(jīng)網(wǎng)絡,異質(zhì)圖表示學習和推薦系統(tǒng)



引言

協(xié)同過濾作為一種經(jīng)典的推薦算法在推薦領域有舉足輕重的地位。協(xié)同過濾(collaborative filtering)的基本假設是相似的用戶會對物品展現(xiàn)出相似的偏好。
總的來說,協(xié)同過濾模型主要包含兩個關鍵部分:1)embedding,即如何將 user 和 item 轉(zhuǎn)化為向量表示;2)interaction modeling,即如何基于 user 和 item 的表示來重建它們的歷史交互。
傳統(tǒng)協(xié)同過濾算法(如經(jīng)典的矩陣分解和神經(jīng)矩陣分解)本質(zhì)還是給 user 和 item 初始化一個 embedding,然后利用交互信息來優(yōu)化模型。它們并沒有把交互信息編碼進 embedding 中,所以這些 embedding 都是次優(yōu)的。

直觀地理解,如果能將 user-item 的交互信息編碼進 embedding 中,將提升 embedding 的表示能力進而提升模型的預測能力。本文的主要創(chuàng)新點在于利用二部圖神經(jīng)網(wǎng)絡將 User-Item 的歷史交互信息編碼進 Embedding 進而提升推薦效果。更重要的是,本文顯式地考慮 User-Item 之間的高階連接性來進一步提升 embedding 的表示能力。


圖 1 展示了一個 user-item 的二部圖及 u1?的高階連接性。u1?的高階連接性表示?u1 通過長度大于 1 的路徑連接到的節(jié)點。例如,u1 通過長度 l=2 的路徑連接到?u2?和?u3,這代表 u1 的 2 階連接性;u1?通過長度 l=3 的路徑連接到 i4,i5,這代表 u1 的 3 階連接性。需要注意的是,雖然 i4 和 i5 都是?u1?的 3 階鄰居,但是 i4 可以通過更多的路徑連接到?u1,所以 i4 與?u1?的相似度更高。

模型

模型主要分為 3 個部分:1)Embedding Layer:將 user 和 item 的 ID 映射為向量表示;2)Embedding Propagation Layers:將初始的 user 和 item 表示基于圖神經(jīng)網(wǎng)絡來更新;3)Prediction:基于更新后的 user 和 item 表示來進行預測。模型架構(gòu)圖見 Figure 2。


Embedding Layer

這里對 User 和 Item 分別初始化相應的 Embedding Matrix,然后通過 User 或者 Item 的 ID 進行 Embedding Lookup 將它們映射到一個向量表示。

注意,這里初始化的 Embedding 可以認為是 0 階表示,即。

Embedding Propagation Layers

受 GNN 的 message-passing 架構(gòu)的啟發(fā),NGCF 針對 User-Item 二部交互圖設計了 Embedding Propagation 來學習 User 和 Item 的表示。這里作者首先詳細的描述了一階傳播,然后泛化到高階傳播。

一階傳播主要包含:消息構(gòu)建和消息聚合。給定(u,i),從 i 傳播到 u 的消息可以定義為:

其中,都是可學習的參數(shù)矩陣,和分別代表 u 和 i 的度。這里?可以理解為歸一化系數(shù)。

基于上面構(gòu)建的消息,下一步就是聚合消息來更新節(jié)點表示:

其中,代表經(jīng)過 1 次聚合之后的節(jié)點表示。因為單層的消息聚合只能聚合 1 階鄰居的信息,所以這里實際代表了 u 的一階表示。需要注意的是,這里除了聚合鄰居的信息,更重要的是考慮節(jié)點自身的信息。

高階傳播實際就是將上述的一階傳播堆疊多層。這樣經(jīng)過 l 次聚合,每個節(jié)點都會融合其 l 階鄰居的信息,也就得到了節(jié)點的 l 階表示。

Figure 3 清晰地展示了如何在高階傳播中融合高階鄰居的信息。


上面的傳播過程也可以寫成矩陣的形式,這樣在代碼實現(xiàn)的時候可以高效的對節(jié)點 Embedding 進行更新。

其中,是 l 階的 user 和 item 的表示,是 user-item 交互矩陣,D?是對角度矩陣。
Model Prediction
模型的預測非常簡單,將 L 階的節(jié)點表示分別拼接起來作為最終的節(jié)點表示,然后通過內(nèi)積進行預測。

實際這里采用了類似 18 ICML?Representation Learning on Graphs with Jumping Knowledge Networks?的做法來防止 GNN 中的過平滑問題。GNN 的過平滑問題是指,隨著 GNN 層數(shù)增加,GNN 所學習的 Embedding 變得沒有區(qū)分度。過平滑問題與本文要捕獲的高階連接性有一定的沖突,所以這里需要在克服過平滑問題。

最終的損失函數(shù)就是經(jīng)典的 BPR 損失函數(shù):


實驗

本文在 Gowalla、Yelp2018 和 Amazon-Book 上進行了大量實驗來回答以下 3 個問題:

  • 和 state-of-the-art 的方法相比,NGCF 的效果如何?

  • 模型對于超參數(shù)(如模型層數(shù),dropout)的敏感性。

  • 高階連接性對于模型的影響。


本文的 baseline 主要可以分為兩大類:非圖神經(jīng)網(wǎng)絡的推薦算法(如 MF 和 CMN)和基于圖神經(jīng)網(wǎng)絡的推薦算法(PinSage 和 GC-MC)。實驗效果如 Table 2 所示:


可以看出,本文所提出的 NGCF 優(yōu)勢很明顯,尤其是在 recall 上的提升均超過 10%。同時,作者還對數(shù)據(jù)進行了稀疏化并進一步驗證來說明 NGCF 來稀疏數(shù)據(jù)上的優(yōu)勢。


從 Figure 4 可以看出,NGCF 在數(shù)據(jù)稀疏度較高的時候有明顯優(yōu)勢,隨著稀疏度的下降,NGCF 的優(yōu)勢越來越小甚至被 baseline 超過了。

另外,作者驗證了模型層數(shù)、卷積形式和 dropout 對 NGCF 的影響,具體見 Table 3、Table 4 和 Figure 5。

最后,作者研究了高階連接性對 NGCF 的影響,如 Figure 6 所示。


注意這里 MF 可以看做是 NGCF-0。可以看出,隨著階數(shù)的增加,相同顏色的節(jié)點更好的聚集在一起。也就是說,高階連接性確實有助于學習 User 和 Item 的 Embedding。

結(jié)論


本文提出了基于圖神經(jīng)網(wǎng)絡的協(xié)同過濾算法 NGCF,它可以顯式地將 User-Item 的高階交互編碼進 Embedding 中來提升 Embedding 的表示能力進而提升整個推薦效果。
NGCF 的關鍵就在于 Embedding Propagation Layer 來學習 User 和 Item 的 Embedding,后面的預測部分只是簡單的內(nèi)積。可以說,NGCF 較好地解決了協(xié)同過濾算法的第一個核心問題。
另外,本文的 Embedding Propagation 實際上沒有考慮鄰居的重要性,如果可以像 Graph Attention Network 在傳播聚合過程中考慮鄰居重要性的差異,NGCF 的效果應該可以進一步提升。

參考文獻


[1] http://staff.ustc.edu.cn/~hexn/slides/sigir19-ngcf-slides.pdf[2]?https://github.com/xiangwang1223/neural_graph_collaborative_filtering?


點擊以下標題查看更多往期內(nèi)容:?

#投 稿 通 道#

?讓你的論文被更多人看到?


如何才能讓更多的優(yōu)質(zhì)內(nèi)容以更短路徑到達讀者群體,縮短讀者尋找優(yōu)質(zhì)內(nèi)容的成本呢?答案就是:你不認識的人。

總有一些你不認識的人,知道你想知道的東西。PaperWeekly 或許可以成為一座橋梁,促使不同背景、不同方向的學者和學術(shù)靈感相互碰撞,迸發(fā)出更多的可能性。?

PaperWeekly 鼓勵高校實驗室或個人,在我們的平臺上分享各類優(yōu)質(zhì)內(nèi)容,可以是最新論文解讀,也可以是學習心得技術(shù)干貨。我們的目的只有一個,讓知識真正流動起來。

??來稿標準:

? 稿件確系個人原創(chuàng)作品,來稿需注明作者個人信息(姓名+學校/工作單位+學歷/職位+研究方向)?

? 如果文章并非首發(fā),請在投稿時提醒并附上所有已發(fā)布鏈接?

? PaperWeekly 默認每篇文章都是首發(fā),均會添加“原創(chuàng)”標志

? 投稿郵箱:

? 投稿郵箱:hr@paperweekly.site?

? 所有文章配圖,請單獨在附件中發(fā)送?

? 請留下即時聯(lián)系方式(微信或手機),以便我們在編輯發(fā)布時和作者溝通

?

現(xiàn)在,在「知乎」也能找到我們了

進入知乎首頁搜索「PaperWeekly」

點擊「關注」訂閱我們的專欄吧

關于PaperWeekly

PaperWeekly 是一個推薦、解讀、討論、報道人工智能前沿論文成果的學術(shù)平臺。如果你研究或從事 AI 領域,歡迎在公眾號后臺點擊「交流群」,小助手將把你帶入 PaperWeekly 的交流群里。

▽ 點擊 |?閱讀原文?| 下載論文 & 源碼

總結(jié)

以上是生活随笔為你收集整理的SIGIR 2019 开源论文 | 基于图神经网络的协同过滤算法的全部內(nèi)容,希望文章能夠幫你解決所遇到的問題。

如果覺得生活随笔網(wǎng)站內(nèi)容還不錯,歡迎將生活随笔推薦給好友。