日韩性视频-久久久蜜桃-www中文字幕-在线中文字幕av-亚洲欧美一区二区三区四区-撸久久-香蕉视频一区-久久无码精品丰满人妻-国产高潮av-激情福利社-日韩av网址大全-国产精品久久999-日本五十路在线-性欧美在线-久久99精品波多结衣一区-男女午夜免费视频-黑人极品ⅴideos精品欧美棵-人人妻人人澡人人爽精品欧美一区-日韩一区在线看-欧美a级在线免费观看

歡迎訪問 生活随笔!

生活随笔

當前位置: 首頁 >

当推荐遇到冷启动

發(fā)布時間:2025/3/8 19 豆豆
生活随笔 收集整理的這篇文章主要介紹了 当推荐遇到冷启动 小編覺得挺不錯的,現(xiàn)在分享給大家,幫大家做個參考.

十方@煉丹筆記

冷啟動問題,大家并不陌生。但是如何解決呢?加特征,加樣本,加圖譜,加規(guī)則?十方在做信息流廣告推薦時,主要通過加一些泛化特征解決冷啟動問題,但是這樣并不一定是最好的方案,新廣告很大程度上,還是會被模型"低估"。如何解決冷啟動問題呢?

冷啟動問題可以逃避嗎?當然不能,就拿廣告推薦來說,當一個客戶想投廣告,由于該廣告從未曝光過,召回模型可能都無法召回,更別說后面的粗排和精排模型是否會過濾掉,所以很難起量。《Alleviating Cold-Start Problems in Recommendation through Pseudo-Labelling over Knowledge Graph》 這篇論文提出了基于GNN的知識圖譜方法解決冷啟動問題,該方法增加了偽標簽做數(shù)據(jù)增強。這種方法使用了歷史從未觀察到的user和item作為正樣本,補充到樣本中。通過在知識圖譜中為每個用戶選擇可能的正例,同時還進行了負采樣策略,從而抑制偏差。通過實驗證明該方法在各個場景下能顯著提高冷啟動user/item的推薦性能。

我們有一個集合的用戶U和一個集合的item I,如果用戶u和item i有交互,yu,i= 1,我們知道大部分(u,i)都是沒有被觀測過的,這是個非常稀疏的交互矩陣(u, i) U * I。我們把觀測過的user item 對定義為 O = {( , )| ∈ U, ∈ I+ } 。同時我們還有個KG G = {(?, , )|?, ∈ E, ∈ R},看過前幾篇關(guān)于 GNN的肯定很清楚,h表示head entity,t表示target entity,r就是h和t的關(guān)系。然后我們目標就是預估那些未被觀測到的yu,i。這篇論文用的GNN框架是KGNN-LS("Knowledge-aware graph neural networks with label smoothness regularization for recommender systems"),不是本文重點,本文重點介紹通過3種方法解決冷啟動的樣本問題。

我們的數(shù)據(jù)必須高度覆蓋未觀測數(shù)據(jù),且不能把它們完全當成負樣本。為了緩解觀測到的(u,i)稀疏性問題,我們通過模型預測未觀察到的樣本(u,i)的label來增加正負標記數(shù)據(jù)。具體內(nèi)容如下:

I+, I? , 和 I ±分別表示正例,負例和偽標簽,loss定義如下:

為了找到可靠的個性化偽標簽,我們可以用觀測到的user和item對,構(gòu)建圖,從而用h跳廣度優(yōu)先搜索算法(BFS)計算某個用戶的正例(I+)到各個未交互過的item( I ±)的路徑數(shù),通過以下概率公式采樣偽標簽:

a是一個控制采樣分布偏度的超參,nu,i± 表示用戶u有交互的item到未交互過的item路徑數(shù)之和。從該公式,我們發(fā)現(xiàn),如果觀測過的item到未觀測的item路徑數(shù)越多,被采樣到的概率越大。如果控制a為一個很小的值,這個采樣分布就偏向于均勻分布,該論文a取0.5。

此外還有基于流行度的采樣。由于冷啟動的item相比較與流行的item,更容易被采樣作為負樣本,因此這個偏差會影響模型的效果,解決辦法就是用下式概率分布進行負采樣:

mu,i-表示i-與用戶交互過的頻次,b用于控制頻次的重要程度。在訓練時,確保三種樣本(正例,負例,偽標簽)是均勻的。下面算法給出了采樣策略。

我們知道,用偽標簽訓練模型,會造成模型優(yōu)化過程不穩(wěn)定,所以該論文引入了co-training方法,該方法同時訓練兩個模型f和g,每個模型的訓練都依賴對方模型的預估結(jié)果。學習算法簡單描述如下:

(1) 采樣兩個mini-batches B 和 B . 并通過f和g分別算出偽標簽。

(2) 通過loss計算梯度,模型f用 B 更新參數(shù),模型g用B 更新參數(shù)。

因此f在B 的loss函數(shù)定義如下:

實驗比較了各種基于KG的推薦算法,用了3個開源數(shù)據(jù)集,如下:

實驗結(jié)果發(fā)現(xiàn),KGPL在各個數(shù)據(jù)集的效果是可圈可點的。

更多干貨,請關(guān)注公眾號:煉丹筆記

總結(jié)

以上是生活随笔為你收集整理的当推荐遇到冷启动的全部內(nèi)容,希望文章能夠幫你解決所遇到的問題。

如果覺得生活随笔網(wǎng)站內(nèi)容還不錯,歡迎將生活随笔推薦給好友。