日韩性视频-久久久蜜桃-www中文字幕-在线中文字幕av-亚洲欧美一区二区三区四区-撸久久-香蕉视频一区-久久无码精品丰满人妻-国产高潮av-激情福利社-日韩av网址大全-国产精品久久999-日本五十路在线-性欧美在线-久久99精品波多结衣一区-男女午夜免费视频-黑人极品ⅴideos精品欧美棵-人人妻人人澡人人爽精品欧美一区-日韩一区在线看-欧美a级在线免费观看

歡迎訪問 生活随笔!

生活随笔

當前位置: 首頁 > 运维知识 > windows >内容正文

windows

自动化Debias框架,一键去除推荐系统所有Bias

發(fā)布時間:2025/3/8 windows 17 豆豆
生活随笔 收集整理的這篇文章主要介紹了 自动化Debias框架,一键去除推荐系统所有Bias 小編覺得挺不錯的,現(xiàn)在分享給大家,幫大家做個參考.

AutoDebias:Learning to Debias for Recommendation

推薦系統(tǒng)依賴于用戶行為數(shù)據(jù),如評分和點擊來建立個性化模型。然而,

  • 所收集的數(shù)據(jù)是觀察性的而不是實驗性的,導致了數(shù)據(jù)中的各種偏差,這些偏差顯著地影響了學習模型。

大多數(shù)現(xiàn)有的推薦debias的工作,如反向inverse propensity scoring和imputation方法,側(cè)重于一個或兩個具體的Bias,缺乏通用性。

針對這一研究空白,我們首先從風險差異的角度分析了Bias的來源,風險差異代表了預期經(jīng)驗風險和真實風險之間的差異。值得注意的是,我們通過指定通用框架的一些參數(shù),得到一個通用學習框架,很好地總結(jié)了大多數(shù)現(xiàn)有的debiasing策略。但是:

  • 訓練數(shù)據(jù)缺乏關(guān)于數(shù)據(jù)是如何有偏的以及無偏數(shù)據(jù)是什么樣子的重要信號。

本文提出利用另一個(小的)統(tǒng)一數(shù)據(jù)集通過元學習解決雙層優(yōu)化問題來優(yōu)化參數(shù)的AotoDebias方法。通過理論分析,我們得到了AutoDebias的推廣界,并證明了它能夠獲得合適的debias策略。

本文的核心貢獻主要有下面2點:

  • 從風險差異的角度統(tǒng)一各種Bias,并制定一個包含大多數(shù)debiasing策略的通用debiasing的框架;
  • 提出了一種利用統(tǒng)一數(shù)據(jù)學習最優(yōu)debiasing策略的新方法,并給出了理論保證。
  • 推薦的Bias

    Selection Bias

    用戶可以自由選擇要評分的商品,所以觀察到的評分不是所有評分的代表性樣本。從風險差異的角度來看,選擇偏差很容易理解——它扭曲了用戶-商品對的分布 . 一般來說,傾向于具有高rating值的配對。

    Conformity Bias

    發(fā)生在用戶傾向于表現(xiàn)出與組中其他人相似的行為時,即使這樣做違背了他們自己的判斷。

    Exposure bias

    發(fā)生在隱性反饋數(shù)據(jù)中,因為用戶只接觸到特定商品的一部分。從上述定義很難理解曝光偏差,但從風險差異的角度來看則很簡單。一方面,用戶在暴露商品上生成行為,使得觀察到的user-item分布偏離理想. 另一方面,內(nèi)隱反饋數(shù)據(jù)只觀察到正反饋.此類僅為正面的數(shù)據(jù)將導致對未觀察到的交互作用的解釋出現(xiàn)歧義-它們可能由未曝光或不喜歡引起。

    Position bias

    當用戶傾向于與推薦列表中較高位置的商品發(fā)生交互。位置偏差下的訓練數(shù)據(jù)分布 會對商品顯示位置敏感,不能如實反映用戶偏好。而且排名的位置將影響商品暴露給用戶的機會,即,. 另一方面,由于用戶往往信任推薦系統(tǒng),因此他們的判斷也會受到位置的影響。

    為了解決上述的問題,此處我們直接對經(jīng)驗risk函數(shù)進行重新加權(quán):

    為了緩解上述的問題,

    其中,

    由于訓練數(shù)據(jù)缺乏關(guān)于數(shù)據(jù)是如何有偏的以及無偏數(shù)據(jù)是什么樣子的重要信號,因此不可能從這些數(shù)據(jù)中學習適當?shù)臏p損參數(shù)。

    此處我們引入uniform數(shù)據(jù)來監(jiān)督debias參數(shù)學習的方法。統(tǒng)一數(shù)據(jù)包含一個三胞胎列表, 假設由隨機日志策略收集,提供了無偏推薦性能的黃金標準證據(jù)。我們充分利用了這一證據(jù)并進行了優(yōu)化,在統(tǒng)一數(shù)據(jù)上實現(xiàn)更好的性能。具體來說,學習過程可以被描述為元學習過程,包括:

    • Base learner:在訓練數(shù)據(jù)的基礎上,利用當前的debias參數(shù)對基礎推薦模型進行了優(yōu)化;

    • Meta learner: 給出了學習基推薦模型從超參數(shù)訓練數(shù)據(jù),針對統(tǒng)一數(shù)據(jù)上更好的推薦性能進行了優(yōu)化:

    由于統(tǒng)一的數(shù)據(jù)往往是在小范圍內(nèi)采集的,直接學習系統(tǒng)中的所有參數(shù)否則會導致過擬合。為了解決這個問題,可以用簡潔的元模型重新參數(shù)化。這種處理方法可以減少參數(shù)的數(shù)量。此處,我們只需選擇一個線性模型來實現(xiàn):

    對應的AutDebias的流程如下:

    • 從上面的實驗中,我們發(fā)現(xiàn)AutoDebias的效果遠超其它的方法。

    本文提出了一個通用的debiasing框架,它不僅可以很好地解釋多個偏差及其組合,而且還免去了人類識別偏差和調(diào)整參數(shù)配置等的的工作。在數(shù)據(jù)集上的試驗,也驗證了該框架的有效性。

    更多細節(jié)可以閱讀:AutoDebias Learning to Debias for Recommendation

    一元@煉丹筆記自動化Debias框架,一鍵去除推薦系統(tǒng)所有Bias。

    總結(jié)

    以上是生活随笔為你收集整理的自动化Debias框架,一键去除推荐系统所有Bias的全部內(nèi)容,希望文章能夠幫你解決所遇到的問題。

    如果覺得生活随笔網(wǎng)站內(nèi)容還不錯,歡迎將生活随笔推薦給好友。