日韩性视频-久久久蜜桃-www中文字幕-在线中文字幕av-亚洲欧美一区二区三区四区-撸久久-香蕉视频一区-久久无码精品丰满人妻-国产高潮av-激情福利社-日韩av网址大全-国产精品久久999-日本五十路在线-性欧美在线-久久99精品波多结衣一区-男女午夜免费视频-黑人极品ⅴideos精品欧美棵-人人妻人人澡人人爽精品欧美一区-日韩一区在线看-欧美a级在线免费观看

歡迎訪問 生活随笔!

生活随笔

當前位置: 首頁 > 编程资源 > 编程问答 >内容正文

编程问答

UA MATH567 高维统计专题2 Low-rank矩阵及其估计1 Matrix Completion简介

發布時間:2025/4/14 编程问答 23 豆豆
生活随笔 收集整理的這篇文章主要介紹了 UA MATH567 高维统计专题2 Low-rank矩阵及其估计1 Matrix Completion简介 小編覺得挺不錯的,現在分享給大家,幫大家做個參考.

UA MATH567 高維統計專題2 Low-rank矩陣及其估計1 Low-rank Matrix簡介

在推薦系統中,Netflix data是非常經典的數據集。考慮它的電影評分數據,用矩陣的每一行表示每一個用戶(假設有d1d_1d1?個用戶),每一列表示每一部電影(假設有d2d_2d2?部電影),矩陣的第iii行第jjj列表示第iii個用戶對第jjj部電影的評分,記這個矩陣為YYY。目前世界上大概兩三百萬部電影,即使每個用戶每天給24部評分一年365天無休也要三百多年才能評完分,所以這個矩陣中有巨多missing data。但是根據這些評分數據,我們想估計用戶對每部電影的真實評分,也就是要估計一個矩陣Θ∈Rd1×d2\Theta \in \mathbb{R}^{d_1 \times d_2}ΘRd1?×d2?。在評分的時候,口味相同的用戶對不同電影的評分傾向于一致,而同一個用戶對相似電影的評分也會比較類似,所以我們大致可以認為Θ\ThetaΘ行列之間可能會有很強的線性相關性,因此Θ\ThetaΘ的秩應該比較低。于是我們可以把Θ\ThetaΘ的估計用下面的模型表示:
min?Θrank(Θ)s.t.PΩ(Θ)=Y\min_{\Theta} \ \ rank(\Theta) \\ s.t. \ \ P_{\Omega}(\Theta)=YΘmin???rank(Θ)s.t.??PΩ?(Θ)=Y

其中PΩ:Rd1×d2→Ω={(i,j):Yijisnotmissing}P_{\Omega}:\mathbb{R}^{d_1 \times d_2} \to \Omega=\{(i,j):Y_{ij}\ is\ not\ missing\}PΩ?:Rd1?×d2?Ω={(i,j):Yij??is?not?missing}

翻譯一下,這個優化想要最小化Θ\ThetaΘ的秩,同時要保證在評分數據沒有缺失的時候,Θ\ThetaΘ與用戶評分相等,所以這個模型實際上是在嘗試補全用戶評分中缺失的那些數據,這也是它被稱為matrix completion的原因。


Matrix Completion

我們先嘗試對這個模型做一點一般性的分析,用0-1矩陣EijE_{ij}Eij?表示Ω\OmegaΩ中的每個元素,Eij∈Rd1×d2E_{ij} \in \mathbb{R}^{d_1 \times d_2}Eij?Rd1?×d2?,除了第iii行第jjj列為1外其他元素均為0,則
Yij=?Eij,Θ?Y_{ij}=\langle E_{ij},\Theta \rangleYij?=?Eij?,Θ?

其中?A,B?\langle A,B \rangle?A,B?表示兩個矩陣的“內積”:
?A,B?=∑i,jAijBij=tr(ATB)=tr(BTA)\langle A,B \rangle = \sum_{i,j}A_{ij}B_{ij}=tr(A^TB)=tr(B^TA)?A,B?=i,j?Aij?Bij?=tr(ATB)=tr(BTA)

這樣做的好處是可以把約束PΩ(Θ)=YP_{\Omega}(\Theta)=YPΩ?(Θ)=Y改寫為
Y=?Eij,Θ?,(i,j)∈ΩY=\langle E_{ij},\Theta \rangle, (i,j) \in \OmegaY=?Eij?,Θ?,(i,j)Ω

在noisy setting下可以假設Yij=?Eij,Θ?+wijY_{ij}=\langle E_{ij},\Theta \rangle+w_{ij}Yij?=?Eij?,Θ?+wij?,其中wijw_{ij}wij?是一個噪聲,這個形式非常像我們熟悉的回歸問題,YijY_{ij}Yij?是observation,EijE_{ij}Eij?是design matrix,wijw_{ij}wij?是noise。

現在我們考慮matrix completion的一般框架:
Yi=?Xi,Θ?+wi,i=1,?,nY_{i}=\langle X_i,\Theta \rangle + w_{i},i=1,\cdots,nYi?=?Xi?,Θ?+wi?,i=1,?,n

其中Xi,Θ∈Rd1×d2X_i,\Theta \in \mathbb{R}^{d_1 \times d_2}Xi?,ΘRd1?×d2?,引入線性映射X:Rd1×d2→Rn\mathcal{X}:\mathbb{R}^{d_1 \times d_2} \to \mathbb{R}^nX:Rd1?×d2?Rn
X(Θ)i=?Xi,Θ?\mathcal{X}(\Theta)_i= \langle X_i,\Theta \rangleX(Θ)i?=?Xi?,Θ?

X\mathcal{X}X是一個三階張量,
Yi=X(Θ)+wiY_i=\mathcal{X}(\Theta)+w_iYi?=X(Θ)+wi?

把這個模型類比為線性回歸,那么X\mathcal{X}X就是design tensor,Θ\ThetaΘ是系數,只是我們的目標函數并不是最小二乘損失,而是系數的秩:
min?rank(Θ)s.t.y=X(Θ)\min \ \ rank(\Theta) \\ s.t. \ \ y=\mathcal{X}(\Theta)min??rank(Θ)s.t.??y=X(Θ)

把這個優化的等式約束放松為用L2L_2L2?-norm表示的不等式約束,那么我們的優化模型就變成了
min?rank(Θ)s.t.∥y?X(Θ)∥22≤R2\min \ \ rank(\Theta) \\ s.t. \ \ \left\| y-\mathcal{X}(\Theta) \right\|_2^2 \le R^2min??rank(Θ)s.t.??y?X(Θ)22?R2

這個不等式約束對模型造成的效果和最小二乘損失沒有區別,因此我們可以把這個模型看成是一種Penalized Least Square,penalty是rank(Θ)rank(\Theta)rank(Θ)。在多數情況下,這個優化是NP-hard問題,只有在特定條件下,它才能在Polynomial time內完成。


Singular Value Decomposition (SVD)
X∈Rm×n,r=rank(X)X \in \mathbb{R}^{m \times n},r=rank(X)XRm×n,r=rank(X),則compact version的奇異值分解為
X=UΣVT=∑i=1rσiuiviTX=U \Sigma V^T = \sum_{i=1}^r \sigma_i u_iv_i^TX=UΣVT=i=1r?σi?ui?viT?

其中U∈Rm×r,V∈Rn×rU \in \mathbb{R}^{m \times r},V \in \mathbb{R}^{n \times r}URm×r,VRn×r滿足
UTU=VTV=IU^TU=V^TV=IUTU=VTV=I

并且
Σ=diag(σ1,?,σr),σ1≥?≥σr?singularvalues>0\Sigma = diag(\sigma_1,\cdots,\sigma_r),\underbrace{\sigma_1 \ge \cdots \ge \sigma_r}_{singular\ values} >0Σ=diag(σ1?,?,σr?),singular?valuesσ1??σr???>0

complete version(不妨假設m>nm>nm>n)的奇異值分解為
X=UΣVTX=U \Sigma V^T X=UΣVT

其中U∈Rm×m,V∈Rn×mU \in \mathbb{R}^{m \times m},V \in \mathbb{R}^{n \times m}URm×m,VRn×m滿足
UTU=VTV=IU^TU=V^TV=IUTU=VTV=I

并且Σ∈Rm×n\Sigma \in \mathbb{R}^{m \times n}ΣRm×n,前nnn個主對角元是奇異值,其余部分都是0;記
σ(X)=(σ1(X),?,σn(X)),σ1≥?≥σn?singularvalues≥0\sigma(X)=(\sigma_1(X),\cdots,\sigma_n(X)),\underbrace{\sigma_1 \ge \cdots \ge \sigma_n}_{singular\ values} \ge 0σ(X)=(σ1?(X),?,σn?(X)),singular?valuesσ1??σn???0


rank(X)=∥σ(X)∥0=#{i:σi>0}rank(X)=\left\| \sigma(X) \right\|_0=\#\{i:\sigma_i>0\}rank(X)=σ(X)0?=#{i:σi?>0}

這個結果可以說明rank-minimization與L0L_0L0?-minimization之間存在某種等價性。

定理
Best Low-rank Approximation
min?X∥X?Y∥Fs.t.rank(X)≤r\min_X \left\| X-Y \right\|_F \\ s.t. rank(X) \le rXmin?X?YF?s.t.rank(X)r

的解為∑i=1rσiuiviT\sum_{i=1}^r \sigma_i u_iv_i^Ti=1r?σi?ui?viT?,其中Y=∑i=1nσiuiviTY=\sum_{i=1}^n\sigma_iu_iv_i^TY=i=1n?σi?ui?viT?。其中Frobenius范數可以替換為其他orthogonal-invariant norm(即對某個矩陣而言與正交矩陣相乘后取范數與原矩陣直接取范數相等),approximation error為
∥∑i=1rσiuiviT?Y∥F=∑i=r+1nσi2\left\|\sum_{i=1}^r \sigma_i u_iv_i^T-Y \right\|_F=\sum_{i=r+1}^n \sigma_i^2?i=1r?σi?ui?viT??Y?F?=i=r+1n?σi2?

這個定理對其他形式的Best Low-rank Approximation也成立,比如
min?rank(X)s.t.∥X?Y∥≤?\min \ rank(X) \\ s.t. \left\| X-Y\right\| \le \epsilonmin?rank(X)s.t.X?Y?

的解為為∑i=1rσiuiviT\sum_{i=1}^r \sigma_i u_iv_i^Ti=1r?σi?ui?viT?,其中
r=inf?{r:∑i=r+1nσi2≤?}r=\inf\{r:\sum_{i=r+1}^n \sigma_i^2 \le \epsilon\}r=inf{r:i=r+1n?σi2??}


《新程序員》:云原生和全面數字化實踐50位技術專家共同創作,文字、視頻、音頻交互閱讀

總結

以上是生活随笔為你收集整理的UA MATH567 高维统计专题2 Low-rank矩阵及其估计1 Matrix Completion简介的全部內容,希望文章能夠幫你解決所遇到的問題。

如果覺得生活随笔網站內容還不錯,歡迎將生活随笔推薦給好友。