9.3 低秩矩阵分解-机器学习笔记-斯坦福吴恩达教授
低秩矩陣分解(Low Rank Matrix Factorization)
我們將用戶(hù)對(duì)電影的評(píng)分表格:
用矩陣表示:
Y=[55005??0?40?00540050]Y=\left[\begin{matrix} 5&5&0&0\\ 5&?&?&0\\ ?&4&0&?\\ 0&0&5&4\\ 0&0&5&0\\ \end{matrix}\right]Y=???????55?00?5?400?0?055?00?40????????
我們發(fā)現(xiàn),由于用戶(hù)不會(huì)對(duì)所有電影都進(jìn)行打分,所以該矩陣是十分稀疏的。如果我們用預(yù)測(cè)來(lái)描述這個(gè)矩陣:
Predicated=[(θ(1))Tx(1)(θ(2))Tx(1)???(θ(nu))Tx(1)(θ(1))Tx(2)(θ(2))Tx(2)?(θ(nu))Tx(2)????(θ(1))Tx(nm)(θ(2))Tx(nm)?(θ(nu))Tx(nm)]Predicated=\left[\begin{matrix} (\theta^{(1)})^Tx^{(1)} & (\theta^{(2)})^Tx^{(1)} & \cdot\cdot\cdot & (\theta^{(n_u)})^Tx^{(1)} \\ (\theta^{(1)})^Tx^{(2)} & (\theta^{(2)})^Tx^{(2)} & \cdots & (\theta^{(n_u)})^Tx^{(2)} \\ \vdots & \vdots & \vdots & \vdots \\ (\theta^{(1)})^Tx^{(n_m)} & (\theta^{(2)})^Tx^{(n_m)} & \cdots & (\theta^{(n_u)})^Tx^{(n_m)} \\ \end{matrix}\right]Predicated=??????(θ(1))Tx(1)(θ(1))Tx(2)?(θ(1))Tx(nm?)?(θ(2))Tx(1)(θ(2))Tx(2)?(θ(2))Tx(nm?)????????(θ(nu?))Tx(1)(θ(nu?))Tx(2)?(θ(nu?))Tx(nm?)???????
令:
X=[(x(1))T(x(2))T?(x(nm))T],Θ=[(θ(1))T(θ(2))T?(θ(nu))T]X=\left[\begin{matrix} (x^{(1)})^T \\ (x^{(2)})^T \\ \vdots \\ (x^{(n_m)})^T \\ \end{matrix}\right],\quad \Theta=\left[\begin{matrix} (\theta^{(1)})^T \\ (\theta^{(2)})^T \\ \vdots \\ (\theta^{(n_u)})^T \\ \end{matrix}\right]X=??????(x(1))T(x(2))T?(x(nm?))T???????,Θ=??????(θ(1))T(θ(2))T?(θ(nu?))T???????
即 XXX 的每一行描述了一部電影的內(nèi)容, ΘTΘ^TΘT 的每一列描述了用戶(hù)對(duì)于電影內(nèi)容偏好程度,亦即,我們將原來(lái)稀疏的矩陣分解為了 XXX 和 ΘΘΘ 。現(xiàn)在預(yù)測(cè)可以寫(xiě)為:
Predicated=XΘTPredicated=XΘ^TPredicated=XΘT
用這個(gè)方法求取 XXX 和 ΘΘΘ ,獲得推薦系統(tǒng)需要的參數(shù),稱(chēng)之為低秩矩陣分解,該方法不僅能在編程時(shí)直接通過(guò)向量化的手法獲得參數(shù),還通過(guò)矩陣分解節(jié)省了內(nèi)存空間。
總結(jié)
以上是生活随笔為你收集整理的9.3 低秩矩阵分解-机器学习笔记-斯坦福吴恩达教授的全部?jī)?nèi)容,希望文章能夠幫你解決所遇到的問(wèn)題。
- 上一篇: 9.2 协同过滤-机器学习笔记-斯坦福吴
- 下一篇: 9.4 均值标准化-机器学习笔记-斯坦福