SIGIR 2021 | 推荐系统中的自监督图表征学习
?PaperWeekly 原創 · 作者 |?吳劍燦
學校 |?中國科學技術大學博士生
研究方向?|?信息檢索
摘要
推薦系統中用戶-物品交互圖上的表征學習(Representation Learning)已經從使用單個 ID 或歷史交互行為發展到利用交互圖上的高階鄰域信息,催生了諸如 PinSage 和 LightGCN 等圖卷積網絡(Graph Neural Networks)。
雖然它們取得了不錯的性能提升,但我們認為這些模型存在如下局限性:(1)高度結點對表征學習的影響更大,從而降低了低度(長尾)物品的推薦效果;(2)鄰居聚合方案進一步擴大了觀測到的連邊的影響,使得表征學習容易受到噪聲交互的干擾。
在這個工作中,我們探索在用戶-物品交互圖上的自監督學習以改善基于 GCN 的推薦模型的準確性和魯棒性。其思想是在經典的有監督推薦任務的基礎上增加一個輔助的自監督學習任務,通過自我鑒別的方式來增強結點的表征學習。我們將這種新的學習范式稱為自監督圖學習(SGL)。
通過理論分析,我們發現 SGL 具有主動挖掘難負樣本(Hard Negatives)的能力。在三個基準數據集的測試表明SGL可以提高推薦的準確性,尤其是長尾物品的推薦精度,而且對噪聲交互具有更強的魯棒性。
論文標題:
Self-supervised Graph Learning for Recommendation
論文作者:
吳劍燦(中國科學技術大學),王翔(新加坡國立大學),馮福利(新加坡國立大學),何向南(中國科學技術大學),陳亮(中山大學),練建勛(微軟亞洲研究院),謝幸(微軟亞洲研究院)
收錄會議:
SIGIR 2021
論文鏈接:
https://arxiv.org/abs/2010.10783
代碼鏈接:
https://github.com/wujcan/SGL
?
研究背景
從交互數據中學習高質量的用戶和物品表征是協同過濾的核心。早期的工作如矩陣分解模型(MF)將每個用戶(或物品)的 ID 映射為一個 embedding 向量來進行學習。后續的研究則考慮引入歷史交互行為來豐富單一的 ID 信息,以便更好地進行表征學習。
最近,受到圖卷積網絡的啟發,推薦系統中的表征學習發展到利用用戶-物品交互圖中的高階連通性,將多跳鄰居聚合到結點表征學習中,并取得了性能提升。雖然這些方法很有效,但存在著如下的不足:
監督信號稀疏:大部分的推薦系統模型采用有監督學習范式,其監督信號來自觀測到的交互數據。然而,與完整的交互空間相比,觀測到的交互極其稀疏,使得模型無法學習到高質量的表征;
數據分布偏態:用戶-物品交互圖上的用戶結點和物品結點通常呈現冪律分布(power-law distribution),其中由低度物品構成的長尾部分缺乏監督信號,相反,高度物品則頻繁出現在鄰居聚合和目標函數中,對表征學習產生更大的影響,使得模型偏向于推薦頭部物品,而犧牲了長尾物品的曝光;
交互數據存在噪聲:用戶提供的反饋信息大部分是隱式的(如點擊、瀏覽等)而非顯式的(如評分、喜歡/不喜歡等)。因此觀測到的交互數據通常存在噪聲,例如,用戶被誤導而點擊了某個物品,然而在消費該物品后發現對其不感興趣。而 GCN 中的鄰居聚合機制擴大了交互行為對表征學習的影響,使得模型更容易受到噪聲交互的影響。
在這個工作中,我們重點探討利用自監督學習(Self-supervised Learning, SSL)來解決上述問題。雖然自監督學習在 CV 和 NLP 領域應用廣泛,但它在推薦領域受到的關注還相對較少。其核心思想是設置一個輔助任務,從輸入數據本身(特別是未標注的數據空間)提取額外的監督信號。例如,BERT 隨機掩碼一些詞項,然后將輔助任務設置為對這些詞項的預測以捕捉詞項之間的依賴關系。
?
一般來講,除了必需的圖編碼器外,基于GNN的自監督學習還需要額外兩個關鍵模塊:(1)數據增強模塊,它為每個結點生成多個視圖;(2)對比學習模塊,它最大化同一結點的不同視圖間的一致性表征和不同結點的視圖間的差異性表征。與有監督學習相比,SSL 允許我們通過對輸入數據進行更改來利用未標注的數據空間,從而在下游任務中獲得顯著的性能提升。
方法介紹
方法介紹共分為三個部分:圖結構上的數據增強、多任務訓練框架、SGL 的梯度分析
?
3.1圖結構上的數據增強
考慮到二分圖是由用戶-物品的交互構建的,包含著豐富的協同過濾信號,具體來講,二分圖上的一階鄰居直接描述用戶歷史交互的物品(或交互過該物品的用戶);二階鄰居表示具有相同行為的用戶(或有相同受眾的物品);用戶到物品結點的高階路徑則代表著用戶對物品的潛在興趣。因此,挖掘圖結構的內在模式對表征學習具有積極的意義。一個基于圖神經網絡的推薦模型可以抽象成如下公式:
其中 表示第 l 層結點表征, 表示根據用戶歷史交互構建的二分圖, 表示 ID embedding 矩陣,也即模型的可訓練參數。在獲得 L 層結點表征后,通常會經過一個 Readout 層生成結點的最終表征。
圖結構作為圖神經網絡的輸入,在推薦模型中起到至關重要的作用。因此針對圖結構,我們進行數據增強操作來生成結點的不同視圖,其正式定義如下:
其中 S 表示所有數據增強操作的集合, 和 分別是從 S 中隨機采樣的兩個相互獨立的數據增強操作,并由此獲得兩個相關的結點視圖 和 。我們采用的數據增強操作如下:
結點 Dropout:圖上的任一結點及其關聯的連邊以概率 被移除出去,這樣可以從不同的增強視圖中識別出有影響力的結點,并使表征學習對結構的變化更加魯棒。
連邊 Dropout:圖上的任一連邊以概率 被移除出去,僅使用部分鄰居信息來進行鄰居聚合,這樣可以捕捉結點局部結構的有效模式,賦予表征學習更強的魯棒性,對抗噪聲交互的干擾。
隨機游走:與上述兩種各個圖卷積層共享增強子圖的數據增強操作不同,這種操作對不同卷積層敏感,也即為各個卷積層分別生成不同的增強子圖,可以將其視為利用隨機游走為各個結點生成各自的子圖。以采用連邊 Dropout 為例,其定義如下:
3.2 多任務訓練框架
在構建了結點的增強視圖后,我們下面介紹整個模型的框架,如下圖所示。
▲ 圖1 SGL模型框架
?
我們采用 LightGCN 作為圖編碼器來實現 SGL。需要提到的是,我們的 SGL 沒有對圖編碼器進行約束,因此可以適用于任何基于 GNN 的推薦模型。
在這個多任務訓練框架中,主任務是有監督推薦任務,將原始用戶-物品交互圖輸入圖編碼器后得到結點在隱空間中的向量表征,然后采用 BPR Loss 作為目標函數。而在輔助任務中,我們需要為同一個結點生成兩個不同的視圖,因此需要兩路圖編碼器得到結點的兩套表征。
我們將由同一個結點生成的不同表征看作正樣本對,而與其他不同結點的表征構成負樣本對。正樣本對的輔助監督信號可促進同一結點的不同視圖之間的一致性表征學習,而負樣本對的監督信號則可促進不同結點之間的差異性表征學習。
具體地,我們采用 InfoNCE 作為自監督的目標函數。考慮到用戶結點和物品結點是不同類型的結點,在定義目標函數時,我們分別在用戶側和物品側定義了損失函數,兩者的加和作為總的 SSL 損失函數,公式如下:
最終的目標函數由主任務和輔助任務加和得到,公式如下:
需要注意的是,由于 LightGCN 沒有特征變換矩陣,其唯一的可訓練參數是 0 層的結點 embedding,我們這里采用參數共享的策略,即主任務中的圖編碼器和自監督任務中的兩路圖編碼器共享 0 層的結點表征,這樣,整個模型不會引入新的參數。而且在模型推斷階段,輔助任務部分不參與計算,因此不會提高模型的推斷復雜度。
?
3.3 SGL的梯度分析
在這一部分,我們通過分析 SSL 損失函數來試圖回答如下問題:推薦模型如何從 SSL 中獲益?我們從梯度的角度來分析負樣本對目標結點的表征的貢獻。經過推導,我們可以得到負樣本的梯度的 范式正比于如下式子:
其中 表示負樣本與目標結點表征的余弦相似度。根據余弦相似度,我們大致可以將負樣本劃分為兩類:
1. 難負樣本,它的表征與目標結點相似(0<x≤1),使得它難以在隱空間中與目標結點進行區分;
2. 簡單負樣本,它的表征與目標結點差異較大(),因此容易區分開來。下圖展示了在 不同取值時 的變換情況。
▲ 圖2 函數曲線以及其最大值和極值點隨??的變化情況
從圖 2(a) 和圖 2(b) 可以看到,在 取不同值時,負樣本的梯度貢獻差異很大。在 時, 的值域是(0,1.5),它對 x 的響應變化不大,說明不管是難負樣本還是簡單負樣本,它的梯度貢獻相差不大;而在 時, 的取值可以達到 4000,而簡單負樣本的貢獻幾乎可以忽略,說明難負樣本提供更大的梯度來指導優化,使得結點表征更具區分性,并加速訓練過程。
從圖 2(c) 和圖 2(d) 中,我們發現隨著 的減小,最具影響力的負樣本與目標結點越來越相似,而且它們的貢獻被超指數(super-exponentially)放大。因此,選取合適的 將賦予 SGL 主動挖掘難負樣本的能力。
?
實驗結果
我們在三個基準數據集上進行測試來驗證所提出的 SGL 的有效性。
?
4.1 整體性能
表 1 展示了不同 SGL 變種與 SOTA 模型 LightGCN 的性能比較。可以看到,我們的 SGL 取得了顯著的性能提升。
▲ 表1 不同SGL變種與LightGCN的性能比較
4.2 長尾推薦
為了驗證 SGL 是否可以緩解長尾問題,我們根據物品的流行度進行分組,每組內的總曝光數保持一致,組的 ID 越大說明該組內的物品越流行。圖 3 展示了各組 Recall@20 的分布情況,可以看到,LightGCN 存在著嚴重的長尾問題,比如在三個數據集上,第 10 組的物品數分別只占了總物品數的 0.83%、0.83% 和 0.22%,但卻貢獻了 39.72%、39.92% 和 51.92% 的 top 20 推薦列表。
而 SGL 則明顯緩解了這個問題,其第 10 組的貢獻降到 36.27%、29.15% 和 35.07%。而且綜合分析表 1 和圖 3,我們可以發現 SGL 的性能提升主要來自于對稀疏物品的準確推薦。
▲ 圖3 SGL-ED和LightGCN在不同物品流行度分組下的性能比較
?
4.3 噪聲交互的魯棒性
我們也做了實驗來驗證SGL是否對噪聲交互具有魯棒性。為此,我們通過添加一定比例的對抗樣本(5%,10%,15%,20%)來污染訓練集,而保持測試集不變。圖4展示了在兩個數據集上的性能結果。可以看到,隨著噪聲交互數量的增大,相比于 LightGCN,SGL 性能下降的比例明顯更小,這表明通過比較結點的不同增強視圖,SGL 能夠找到有用的模式,特別是結點的結構性質,來降低對特定連邊的依賴以提高模型的魯棒性。
▲ 圖4 噪聲交互的比例對模型性能的影響
總結
在本工作中,我們強調了在有監督學習范式下基于 GCN 的推薦模型的局限性,并探索利用自監督學習來解決這些局限性。我們提出了一個模型無關的框架 SGL,利用用戶-物品交互圖上的自監督學習來補充有監督推薦任務,并從圖結構的角度設計了三種數據增強方式來構建對比學習任務。這是自監督學習在推薦系統中的一個初步嘗試,希望能開辟一個新的研究可能性為后續的研究提供一些指導意義。
?
?
參考文獻
[1] Rex Ying, Ruining He, Kaifeng Chen, Pong Eksombatchai, William L. Hamilton, and Jure Leskovec. 2018. Graph Convolutional Neural Networks for Web-Scale Recommender Systems. In KDD. 974–983.
[2] Xiangnan He, Kuan Deng, Xiang Wang, Yan Li, Yong-Dong Zhang, and Meng Wang. 2020. LightGCN: Simplifying and Powering Graph Convolution Network for Recommendation. In SIGIR. 639–648.
[3] Steffen Rendle, Christoph Freudenthaler, Zeno Gantner, and Lars Schmidt-Thieme. 2009. BPR: Bayesian Personalized Ranking from Implicit Feedback. In UAI. 452–461.
[4] Jacob Devlin, Ming-Wei Chang, Kenton Lee, and Kristina Toutanova. 2019. BERT: Pre-training of Deep Bidirectional Transformers for Language Understanding. In NAACL-HLT. 4171–4186.
?
更多閱讀
#投 稿?通 道#
?讓你的文字被更多人看到?
如何才能讓更多的優質內容以更短路徑到達讀者群體,縮短讀者尋找優質內容的成本呢?答案就是:你不認識的人。
總有一些你不認識的人,知道你想知道的東西。PaperWeekly 或許可以成為一座橋梁,促使不同背景、不同方向的學者和學術靈感相互碰撞,迸發出更多的可能性。?
PaperWeekly 鼓勵高校實驗室或個人,在我們的平臺上分享各類優質內容,可以是最新論文解讀,也可以是學術熱點剖析、科研心得或競賽經驗講解等。我們的目的只有一個,讓知識真正流動起來。
?????稿件基本要求:
? 文章確系個人原創作品,未曾在公開渠道發表,如為其他平臺已發表或待發表的文章,請明確標注?
? 稿件建議以 markdown 格式撰寫,文中配圖以附件形式發送,要求圖片清晰,無版權問題
? PaperWeekly 尊重原作者署名權,并將為每篇被采納的原創首發稿件,提供業內具有競爭力稿酬,具體依據文章閱讀量和文章質量階梯制結算
?????投稿通道:
? 投稿郵箱:hr@paperweekly.site?
? 來稿請備注即時聯系方式(微信),以便我們在稿件選用的第一時間聯系作者
? 您也可以直接添加小編微信(pwbot02)快速投稿,備注:姓名-投稿
△長按添加PaperWeekly小編
????
現在,在「知乎」也能找到我們了
進入知乎首頁搜索「PaperWeekly」
點擊「關注」訂閱我們的專欄吧
關于PaperWeekly
PaperWeekly 是一個推薦、解讀、討論、報道人工智能前沿論文成果的學術平臺。如果你研究或從事 AI 領域,歡迎在公眾號后臺點擊「交流群」,小助手將把你帶入 PaperWeekly 的交流群里。
總結
以上是生活随笔為你收集整理的SIGIR 2021 | 推荐系统中的自监督图表征学习的全部內容,希望文章能夠幫你解決所遇到的問題。
- 上一篇: win7 网络问题怎么解决 win7网络
- 下一篇: 推荐系统去偏(Debiased Reco