【机器学习实战】第14章 利用SVD简化数据
第14章 利用SVD簡化數據
SVD 概述
奇異值分解(SVD, Singular Value Decomposition):提取信息的一種方法,可以把 SVD 看成是從噪聲數據中抽取相關特征。從生物信息學到金融學,SVD 是提取信息的強大工具。SVD 場景
信息檢索-隱形語義檢索(Lstent Semantic Indexing, LSI)或 隱形語義分析(Latent Semantic Analysis, LSA)
隱性語義索引:矩陣 = 文檔 + 詞語
- 是最早的 SVD 應用之一,我們稱利用 SVD 的方法為隱性語義索引(LSI)或隱性語義分析(LSA)。
推薦系統
- 上圖右邊標注的為一組共同特征,表示美式 BBQ 空間;另一組在上圖右邊未標注的為日式食品 空間。
圖像壓縮
例如:32*32=1024 => 32*2+2*1+32*2=130(2*1表示去掉了除對角線的0), 幾乎獲得了10倍的壓縮比。
SVD 原理
SVD 工作原理
矩陣分解
- 矩陣分解是將數據矩陣分解為多個獨立部分的過程。
- 矩陣分解可以將原始矩陣表示成新的易于處理的形式,這種新形式是兩個或多個矩陣的乘積。(類似代數中的因數分解)
- 舉例:如何將12分解成兩個數的乘積?(1,12)、(2,6)、(3,4)都是合理的答案。
SVD 是矩陣分解的一種類型,也是矩陣分解最常見的技術
- SVD 將原始的數據集矩陣 Data 分解成三個矩陣 U、∑、V
- 舉例:如果原始矩陣 \(Data_{m*n}\) 是m行n列,
- \(U_{m*n}\) 表示m行n列
- \(∑_{m*k}\) 表示m行k列
- \(V_{k*n}\) 表示k行n列。
\(Data_{m*n} = U_{m*k} * ∑_{k*k} * V_{k*n}\)
具體的案例:(大家可以試著推導一下:https://wenku.baidu.com/view/b7641217866fb84ae45c8d17.html?)
- 上述分解中會構建出一個矩陣∑,該矩陣只有對角元素,其他元素均為0(近似于0)。另一個慣例就是,∑的對角元素是從大到小排列的。這些對角元素稱為奇異值。
- 奇異值與特征值(PCA 數據中重要特征)是有關系的。這里的奇異值就是矩陣 \(Data * Data^T\) 特征值的平方根。
- 普遍的事實:在某個奇異值的數目(r 個=>奇異值的平方和累加到總值的90%以上)之后,其他的奇異值都置為0(近似于0)。這意味著數據集中僅有 r 個重要特征,而其余特征則都是噪聲或冗余特征。
SVD 算法特點
優點:簡化數據,去除噪聲,優化算法的結果 缺點:數據的轉換可能難以理解 使用的數據類型:數值型數據推薦系統
推薦系統 概述
推薦系統是利用電子商務網站向客戶提供商品信息和建議,幫助用戶決定應該購買什么產品,模擬銷售人員幫助客戶完成購買過程。
推薦系統 場景
推薦系統 要點
基于協同過濾(collaborative filtering) 的推薦引擎
- 利用Python 實現 SVD(Numpy 有一個稱為 linalg 的線性代數工具箱)
- 協同過濾:是通過將用戶和其他用戶的數據進行對比來實現推薦的。
- 當知道了兩個用戶或兩個物品之間的相似度,我們就可以利用已有的數據來預測未知用戶的喜好。
基于物品的相似度和基于用戶的相似度:物品比較少則選擇物品相似度,用戶比較少則選擇用戶相似度?!揪仃囘€是小一點好計算】
- 基于物品的相似度:計算物品之間的距離?!竞臅r會隨物品數量的增加而增加】
- 由于物品A和物品C 相似度(相關度)很高,所以給買A的人推薦C。
- 基于用戶的相似度:計算用戶之間的距離。【耗時會隨用戶數量的增加而增加】
- 由于用戶A和用戶C 相似度(相關度)很高,所以A和C是興趣相投的人,對于C買的物品就會推薦給A。
相似度計算
- inA, inB 對應的是 列向量
- 相似度= 1/(1+歐式距離)
- 相似度= 1.0/(1.0 + la.norm(inA - inB))
- 物品對越相似,它們的相似度值就越大。
- 相似度= 0.5 + 0.5*corrcoef() 【皮爾遜相關系數的取值范圍從 -1 到 +1,通過函數0.5 + 0.5*corrcoef()這個函數計算,把值歸一化到0到1之間】
- 相似度= 0.5 + 0.5 * corrcoef(inA, inB, rowvar = 0)[0][1]
- 相對歐氏距離的優勢:它對用戶評級的量級并不敏感。
- 余弦值 = (A·B)/(||A||·||B||) 【余弦值的取值范圍也在-1到+1之間】
- 相似度= 0.5 + 0.5*余弦值
- 相似度= 0.5 + 0.5*( float(inA.T*inB) / la.norm(inA)*la.norm(inB))
- 如果夾角為90度,則相似度為0;如果兩個向量的方向相同,則相似度為1.0。
推薦系統的評價
- 采用交叉測試的方法。【拆分數據為訓練集和測試集】
- 推薦引擎評價的指標: 最小均方根誤差(Root mean squared error, RMSE),也稱標準誤差(Standard error),就是計算均方誤差的平均值然后取其平方根。
- 如果RMSE=1, 表示相差1個星級;如果RMSE=2.5, 表示相差2.5個星級。
推薦系統 原理
- 推薦系統的工作過程:給定一個用戶,系統會為此用戶返回N個最好的推薦菜。
- 實現流程大致如下:
- 尋找用戶沒有評級的菜肴,即在用戶-物品矩陣中的0值。
- 在用戶沒有評級的所有物品中,對每個物品預計一個可能的評級分數。這就是說:我們認為用戶可能會對物品的打分(這就是相似度計算的初衷)。
- 對這些物品的評分從高到低進行排序,返回前N個物品。
項目案例: 餐館菜肴推薦系統
項目概述
假如一個人在家決定外出吃飯,但是他并不知道該到哪兒去吃飯,該點什么菜。推薦系統可以幫他做到這兩點。
開發流程
收集 并 準備數據
def loadExData3():# 利用SVD提高推薦效果,菜肴矩陣""" 行:代表人 列:代表菜肴名詞 值:代表人對菜肴的評分,0表示未評分 """ return[[2, 0, 0, 4, 4, 0, 0, 0, 0, 0, 0], [0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 5], [0, 0, 0, 0, 0, 0, 0, 1, 0, 4, 0], [3, 3, 4, 0, 3, 0, 0, 2, 2, 0, 0], [5, 5, 5, 0, 0, 0, 0, 0, 0, 0, 0], [0, 0, 0, 0, 0, 0, 5, 0, 0, 5, 0], [4, 0, 4, 0, 0, 0, 0, 0, 0, 0, 5], [0, 0, 0, 0, 0, 4, 0, 0, 0, 0, 4], [0, 0, 0, 0, 0, 0, 5, 0, 0, 5, 0], [0, 0, 0, 3, 0, 0, 0, 0, 4, 5, 0], [1, 1, 2, 1, 1, 2, 1, 0, 4, 5, 0]]分析數據: 這里不做過多的討論(當然此處可以對比不同距離之間的差別)
訓練算法: 通過調用 recommend() 函數進行推薦
recommend() 會調用 基于物品相似度 或者是 基于SVD,得到推薦的物品評分。
- 1.基于物品相似度
- 2.基于SVD(參考地址:http://www.codeweblog.com/svd-%E7%AC%94%E8%AE%B0/)
排序獲取最后的推薦結果
# recommend()函數,就是推薦引擎,它默認調用standEst()函數,產生了最高的N個推薦結果。 # 如果不指定N的大小,則默認值為3。該函數另外的參數還包括相似度計算方法和估計方法 def recommend(dataMat, user, N=3, simMeas=cosSim, estMethod=standEst): # 尋找未評級的物品 # 對給定的用戶建立一個未評分的物品列表 unratedItems = nonzero(dataMat[user, :].A == 0)[1] # 如果不存在未評分物品,那么就退出函數 if len(unratedItems) == 0: return 'you rated everything' # 物品的編號和評分值 itemScores = [] # 在未評分物品上進行循環 for item in unratedItems: estimatedScore = estMethod(dataMat, user, simMeas, item) # 尋找前N個未評級物品,調用standEst()來產生該物品的預測得分,該物品的編號和估計值會放在一個元素列表itemScores中 itemScores.append((item, estimatedScore)) # 按照估計得分,對該列表進行排序并返回。列表逆排序,第一個值就是最大值 return sorted(itemScores, key=lambda jj: jj[1], reverse=True)[: N]測試 和 項目調用,可直接參考我們的代碼
完整代碼地址:?https://github.com/apachecn/MachineLearning/blob/master/src/python/14.SVD/svdRecommend.py
要點補充
基于內容(content-based)的推薦
構建推薦引擎面臨的挑戰
問題
- 1)在大規模的數據集上,SVD分解會降低程序的速度
- 2)存在其他很多規模擴展性的挑戰性問題,比如矩陣的表示方法和計算相似度得分消耗資源。
- 3)如何在缺乏數據時給出好的推薦-稱為冷啟動【簡單說:用戶不會喜歡一個無效的物品,而用戶不喜歡的物品又無效】
建議
- 1)在大型系統中,SVD分解(可以在程序調入時運行一次)每天運行一次或者其頻率更低,并且還要離線運行。
- 2)在實際中,另一個普遍的做法就是離線計算并保存相似度得分。(物品相似度可能被用戶重復的調用)
- 3)冷啟動問題,解決方案就是將推薦看成是搜索問題,通過各種標簽/屬性特征進行基于內容的推薦。
項目案例: 基于 SVD 的圖像壓縮
收集 并 準備數據
將文本數據轉化為矩陣
# 加載并轉換數據 def imgLoadData(filename):myl = [] # 打開文本文件,并從文件以數組方式讀入字符 for line in open(filename).readlines(): newRow = [] for i in range(32): newRow.append(int(line[i])) myl.append(newRow) # 矩陣調入后,就可以在屏幕上輸出該矩陣 myMat = mat(myl) return myMat分析數據: 分析 Sigma 的長度個數
通常保留矩陣 80% ~ 90% 的能量,就可以得到重要的特征并去除噪聲。
def analyse_data(Sigma, loopNum=20): """analyse_data(分析 Sigma 的長度取值) Args: Sigma Sigma的值 loopNum 循環次數 """ # 總方差的集合(總能量值) Sig2 = Sigma**2 SigmaSum = sum(Sig2) for i in range(loopNum): SigmaI = sum(Sig2[:i+1]) ''' 根據自己的業務情況,就行處理,設置對應的 Singma 次數 通常保留矩陣 80% ~ 90% 的能量,就可以得到重要的特征并取出噪聲。 ''' print '主成分:%s, 方差占比:%s%%' % (format(i+1, '2.0f'), format(SigmaI/SigmaSum*100, '4.2f'))使用算法: 對比使用 SVD 前后的數據差異對比,對于存儲大家可以試著寫寫
例如:32*32=1024 => 32*2+2*1+32*2=130(2*1表示去掉了除對角線的0), 幾乎獲得了10倍的壓縮比。
# 打印矩陣 def printMat(inMat, thresh=0.8): # 由于矩陣保護了浮點數,因此定義淺色和深色,遍歷所有矩陣元素,當元素大于閥值時打印1,否則打印0 for i in range(32): for k in range(32): if float(inMat[i, k]) > thresh: print 1, else: print 0, print '' # 實現圖像壓縮,允許基于任意給定的奇異值數目來重構圖像 def imgCompress(numSV=3, thresh=0.8): """imgCompress( ) Args: numSV Sigma長度 thresh 判斷的閾值 """ # 構建一個列表 myMat = imgLoadData('input/14.SVD/0_5.txt') print "****original matrix****" # 對原始圖像進行SVD分解并重構圖像e printMat(myMat, thresh) # 通過Sigma 重新構成SigRecom來實現 # Sigma是一個對角矩陣,因此需要建立一個全0矩陣,然后將前面的那些奇異值填充到對角線上。 U, Sigma, VT = la.svd(myMat) # SigRecon = mat(zeros((numSV, numSV))) # for k in range(numSV): # SigRecon[k, k] = Sigma[k] # 分析插入的 Sigma 長度 analyse_data(Sigma, 20) SigRecon = mat(eye(numSV) * Sigma[: numSV]) reconMat = U[:, :numSV] * SigRecon * VT[:numSV, :] print "****reconstructed matrix using %d singular values *****" % numSV printMat(reconMat, thresh)完整代碼地址:?https://github.com/apachecn/MachineLearning/blob/master/src/python/14.SVD/svdRecommend.py
- 作者:片刻?1988
- GitHub地址:?https://github.com/apachecn/MachineLearning
- 版權聲明:歡迎轉載學習 => 請標注信息來源于?ApacheCN
轉載于:https://www.cnblogs.com/jiangzhonglian/p/7815289.html
總結
以上是生活随笔為你收集整理的【机器学习实战】第14章 利用SVD简化数据的全部內容,希望文章能夠幫你解決所遇到的問題。
- 上一篇: Python 正则表达式 匹配任意字符
- 下一篇: 算法题