日韩性视频-久久久蜜桃-www中文字幕-在线中文字幕av-亚洲欧美一区二区三区四区-撸久久-香蕉视频一区-久久无码精品丰满人妻-国产高潮av-激情福利社-日韩av网址大全-国产精品久久999-日本五十路在线-性欧美在线-久久99精品波多结衣一区-男女午夜免费视频-黑人极品ⅴideos精品欧美棵-人人妻人人澡人人爽精品欧美一区-日韩一区在线看-欧美a级在线免费观看

歡迎訪問 生活随笔!

生活随笔

當前位置: 首頁 > 运维知识 > windows >内容正文

windows

SVD在推荐系统中的应用详解以及算法推导

發布時間:2025/7/25 windows 36 豆豆
生活随笔 收集整理的這篇文章主要介紹了 SVD在推荐系统中的应用详解以及算法推导 小編覺得挺不錯的,現在分享給大家,幫大家做個參考.

轉載請聲明出處http://blog.csdn.net/zhongkejingwang/article/details/43083603

? ? 前面文章SVD原理及推導已經把SVD的過程講的很清楚了,本文介紹如何將SVD應用于推薦系統中的評分預測問題。其實也就是復現Koren在NetFlix大賽中的使用到的SVD算法以及其擴展出的RSVD、SVD++。

? ?記得剛接觸SVD是在大二,那會兒跟師兄在做項目的時候就用到這個東西,然后到大三下學期剛好百度舉辦了一個電影推薦算法大賽,躍躍欲試地參加了,當時就用的SVD而且只會用這個,后來覺得效果還不錯,接著就又找來了Koren的論文,看了一下把SVD++也實現了,把兩者結果融合得到不少的提升。下面是最終比賽結果:

? ? ? ? ? ? ? ? ? ? ? ??

其實這個最終結果是和第11名組隊后融合了他的結果,所以成績是一樣的。但是單純地使用SVD、SVD++融合得到的結果最好的也能到0.606左右,這個結果已經很牛逼了,記得當時0.6111在榜上維持了兩個多星期的No.1。當時的遺憾就是沒能實現更多的SVD擴展算法,導致融合的結果沒法再提升,代碼也由于時間倉促寫的很臃腫,前段時間有空把算法重寫了一下并實現了更多的擴展算法,已經共享到github上了,有興趣的可以看看:https://github.com/jingchenUSTC/SVDRecommenderSystem

? ? 下面開始介紹SVD算法,假設存在以下user和item的數據矩陣:

? ? ? ? ? ? ? ? ? ? ? ? ? ? ? ??

這是一個極其稀疏的矩陣,這里把這個評分矩陣記為R,其中的元素表示user對item的打分,“?”表示未知的,也就是要你去預測的,現在問題來了:如何去預測未知的評分值呢?上一篇文章用SVD證明了對任意一個矩陣A,都有它的滿秩分解:

? ? ? ? ? ? ?


? ?那么剛才的評分矩陣R也存在這樣一個分解,所以可以用兩個矩陣P和Q的乘積來表示評分矩陣R:

? ? ? ? ? ? ? ? ? ? ? ? ? ? ? ? ? ? ? ? ? ? ? ? ? ? ? ? ? ? ? ? ? ? ? ? ? ? ? ??

上圖中的U表示用戶數,I表示商品數。然后就是利用R中的已知評分訓練P和Q使得P和Q相乘的結果最好地擬合已知的評分,那么未知的評分也就可以用P的某一行乘上Q的某一列得到了:

? ? ? ? ? ? ? ? ? ? ? ? ? ? ? ? ? ? ? ? ? ? ? ? ? ? ? ? ? ? ? ? ? ? ? ? ? ? ? ? ?

這是預測用戶u對商品i的評分,它等于P矩陣的第u行乘上Q矩陣的第i列。這個是最基本的SVD算法,那么如何通過已知評分訓練得到P和Q的具體數值呢?

假設已知的評分為:

? ? ? ? ? ? ? ? ? ? ? ? ? ? ??

則真實值與預測值的誤差為:

? ? ? ? ? ? ? ? ? ? ? ? ? ? ? ??

繼而可以計算出總的誤差平方和:

? ? ? ? ? ? ? ? ? ? ? ? ? ? ? ? ? ? ??

只要通過訓練把SSE降到最小那么P、Q就能最好地擬合R了。那又如何使SSE降到最小呢?下面介紹一個常用的局部優化算法。

梯度下降法

? ?為了說明梯度下降法,我找了一張PPT:



也就是說如果要最小化目標函數,必須往其負梯度方向搜索。這就是梯度下降法,注意它是一個局部優化算法,也就是說有可能落到局部最優解而不是全局最優解。

Basic SVD

利用梯度下降法可以求得SSE在Puk變量(也就是P矩陣的第u行第k列的值)處的梯度:

? ? ? ? ? ? ? ? ? ? ? ? ? ? ? ? ? ? ? ? ? ? ? ? ? ? ? ? ? ? ? ? ? ? ? ? ?

利用求導鏈式法則,e^2先對e求導再乘以e對Puk的求導:

? ? ? ? ? ? ? ? ? ? ? ? ? ? ? ? ? ? ? ? ? ? ? ? ? ? ? ? ? ? ? ? ? ? ? ??

由于

? ? ? ? ? ? ? ? ? ? ? ? ? ? ? ? ? ? ?

所以

? ? ? ? ? ? ? ? ? ? ? ? ? ? ? ? ??

上式中括號里的那一坨式子如果展開來看的話,其與Puk有關的項只有PukQki,其他的無關項對Puk的求導均等于0

所以求導結果為:

? ? ? ? ? ? ? ? ? ? ? ? ? ? ? ? ?

所以

? ? ? ? ? ? ? ? ? ? ? ? ? ? ? ? ? ? ?

為了讓式子更簡潔,令

? ? ? ? ? ? ? ? ? ? ? ? ? ? ? ? ? ? ??

這樣做對結果沒有影響,只是為了把求導結果前的2去掉,更好看點。得到

? ? ? ? ? ? ? ? ? ? ? ? ? ? ? ? ? ? ? ? ? ? ? ? ? ? ? ? ? ??

現在得到了目標函數在Puk處的梯度了,那么按照梯度下降法,將Puk往負梯度方向變化:

令更新的步長(也就是學習速率)為

? ? ? ? ? ? ? ? ? ? ? ? ? ? ? ? ? ? ? ? ? ? ? ? ? ? ? ??

則Puk的更新式為

? ? ? ? ? ? ? ? ? ? ? ? ? ? ? ? ? ? ? ??

同樣的方式可得到Qik的更新式為

? ? ? ? ? ? ? ? ? ? ? ? ? ? ? ? ? ? ? ? ?

得到了更新的式子,現在開始來討論這個更新要怎么進行。有兩種選擇:1、計算完所有已知評分的預測誤差后再對P、Q進行更新。2、每計算完一個eui后立即對Pu和qi進行更新。這兩種方式都有名稱,分別叫:1、批梯度下降。2、隨機梯度下降。兩者的區別就是批梯度下降在下一輪迭代才能使用本次迭代的更新值,隨機梯度下降本次迭代中當前樣本使用的值可能就是上一個樣本更新的值。由于隨機性可以帶來很多好處,比如有利于避免局部最優解,所以現在大多傾向于使用隨機梯度下降進行更新。

RSVD

? ?上面就是基本的SVD算法,但是,問題來了,上面的訓練是針對已知評分數據的,過分地擬合這部分數據有可能導致模型的測試效果很差,在測試集上面表現很糟糕。這就是過擬合問題,關于過擬合與欠擬合可以看一下這張圖


第一個是欠擬合,第二個剛好,第三個過擬合。那么如何避免過擬合呢?那就是在目標函數中加入正則化參數(加入懲罰項),對于目標函數來說,P矩陣和Q矩陣中的所有值都是變量,這些變量在不知道哪個變量會帶來過擬合的情況下,對所有變量都進行懲罰:

? ? ? ? ? ? ? ? ? ? ? ? ? ? ? ? ? ? ? ? ? ?

這時候目標函數對Puk的導數就發生變化了,現在就來求加入懲罰項后的導數。

? ? ? ? ? ? ? ? ? ? ? ? ? ? ? ? ? ? ? ? ? ? ? ??

括號里第一項對Puk的求導前面已經求過了,第二項對Puk的求導很容易求得,第三項與Puk無關,導數為0,所以

? ? ? ? ? ? ? ? ? ? ? ? ? ? ? ? ? ? ? ? ? ? ? ? ? ? ? ? ?

同理可得SSE對qik的導數為

? ? ? ? ? ? ? ? ? ? ? ? ? ? ? ? ? ? ? ? ? ? ? ? ? ? ? ? ??

將這兩個變量往負梯度方向變化,則更新式為

? ? ? ? ? ? ? ? ? ? ? ? ? ? ? ? ? ? ? ? ? ? ? ? ? ? ? ? ? ? ?

這就是正則化后的SVD,也叫RSVD。

加入偏置的SVD、RSVD

? ?關于SVD算法的變種太多了,叫法也不統一,在預測式子上加點參數又會出來一個名稱。由于用戶對商品的打分不僅取決于用戶和商品間的某種關系,還取決于用戶和商品獨有的性質,Koren將SVD的預測公式改成這樣

? ? ? ? ? ? ? ? ? ? ? ? ? ? ? ? ? ? ? ? ? ? ? ? ? ? ? ??

第一項為總的平均分,bu為用戶u的屬性值,bi為商品i的屬性值,加入的這兩個變量在SSE式子中同樣需要懲罰,那么SSE就變成了下面這樣:

? ??

由上式可以看出SSE對Puk和qik的導數都沒有變化,但此時多了bu和bi變量,同樣要求出其更新式。首先求SSE對bu的導數,只有第一項和第四項和bu有關,第一項對bu的求導和之前的求導類似,用鏈式法則即可求得,第四項直接求導即可,最后可得偏導數為

? ? ? ? ? ? ? ? ? ? ? ? ? ? ? ? ? ? ? ? ? ? ? ? ? ? ? ??

同理可得對bi的導數為

? ? ? ? ? ? ? ? ? ? ? ? ? ? ? ? ? ? ? ? ? ? ? ? ? ? ? ??

所以往其負梯度方向變化得到其更新式為

? ? ? ? ? ? ? ? ? ? ? ? ? ? ? ? ? ? ? ? ? ? ? ? ? ? ? ? ??

這就是修改后的SVD(RSVD)。

ASVD

? ? 全稱叫Asymmetric-SVD,即非對稱SVD,其預測式子為


R(u)表示用戶u評過分的商品集合,N(u)表示用戶u瀏覽過但沒有評過分的商品集合,Xj和Yj是商品的屬性。這個模型很有意思,看預測式子,用戶矩陣P已經被去掉了,取而代之的是利用用戶評過分的商品和用戶瀏覽過尚未評分的商品屬性來表示用戶屬性,這有一定的合理性,因為用戶的行為記錄本身就能反應用戶的喜好。而且,這個模型可以帶來一個很大的好處,一個商場或者網站的用戶數成千上萬甚至過億,存儲用戶屬性的二維矩陣會占用巨大的存儲空間,而商品數卻沒有那么多,所以這個模型的好處顯而易見。但是它有個缺點,就是迭代時間太長了,這是可以預見的,以時間換空間嘛。

同樣的,需要計算其各個參數的偏導數,求出更新式,顯然,bu和bi的更新式和剛才求出的一樣


其中的向量z等于下面這坨

? ? ? ? ? ? ? ? ? ? ? ?

現在要求qik、x和y的更新式,在這里如果把z看成Pu則根據前面求得的更新式可得qik的更新式:

? ? ? ? ? ? ? ? ? ? ? ? ? ? ? ? ? ? ? ? ? ? ? ? ? ? ?

求Xj的導數需要有點耐心,SSE的第二項對Xj的導數很容易得到,現在來求第一項對Xj的導數:

???

上式求和符中的i,j都是屬于R(u)的,可以看到Zm只有當m==k時才與Xjk有關,所以

? ? ??

因為

? ? ? ??

所以

? ? ? ? ? ? ? ? ? ? ? ? ? ? ? ? ? ? ? ? ? ??

所以得到SSE對Xjk的導數為

??????????????????

同理可得SSE對Yjk的導數為

?????????????????????????????????

所以得到Xjk和Yjk的更新方程

??????????????

?????????????????????????

這就叫ASVD。。。。。。

SVDPP

? ? 最后這個模型也是Koren文章中提到的,SVDPlusPlus(SVD++),它的預測式子為

? ? ? ? ? ? ? ? ? ? ? ? ? ?

這里的N(u)表示用戶u行為記錄(包括瀏覽的和評過分的商品集合)。看了ASVD的更新式推導過程再來看這個應該很簡單,Puk和qik的更新式子不變,Yjk的更新式子和ASVD的更新式一樣:

??????????????????????????????????



? ? 這些就是Koren在NetFlix大賽中用到的SVD算法,最后,還有一個需要提的:

對偶算法

? ? 將前面預測公式中的u和i調換位置得到其對偶算法,對于RSVD而言,u和i的位置是等價的、對稱的,所以其對偶算法和其本身沒有區別,但對于ASVD和SVD++則不同,有時候對偶算法得到的結果更加精確,并且,如果將對偶算法和原始算法的預測結果融合在一起的話,效果的提升會讓你吃驚!

對偶的ASVD預測公式:


這里R(i)表示評論過商品i的用戶集合,N(i)表示瀏覽過商品i但沒有評論的用戶集合。由于用戶數量龐大,所以對偶的ASVD會占用很大空間,這里需要做取舍了。

對偶的SVD++預測公式:

? ? ??

這里N(i)表示對商品i有過行為(瀏覽或評分)的用戶集合。

實現這一對偶的操作其實很簡單,只要讀取數據的時候把用戶id和商品id對調位置即可,也就是將R矩陣轉置后再訓練。

? ? 暫時實現的算法就這些,代碼都在github上了,有興趣的可以看看,地址:https://github.com/jingchenUSTC/SVDRecommenderSystem

總結

以上是生活随笔為你收集整理的SVD在推荐系统中的应用详解以及算法推导的全部內容,希望文章能夠幫你解決所遇到的問題。

如果覺得生活随笔網站內容還不錯,歡迎將生活随笔推薦給好友。