基于SVD的降维优化
基于SVD的降維優化
向量降維:盡量保留數據“重要信息”的基礎上減少向量維度。可以發現重要的軸(數據分布廣的軸),將二維數據 表示為一維數據,用新軸上的投影值來表示各個數據點的值,示意圖如下。
稀疏矩陣和密集矩陣轉換:大多數元素為0的矩陣稱為稀疏矩陣,從稀疏矩陣中找出重要的軸,用更少的維度對其進行重新表示。結果,稀疏矩陣就會被轉化為大多數元素均不為0的密集矩陣。這個密集矩陣就是我們想要的單詞的分布式表示。
奇異值分解(Singular Value Decomposition,SVD):任意的矩陣X分解為U、S、V,3個矩陣的乘積,其中U和V是列向量彼此正交的正交矩陣,S是除了對角線元素以外其余元素均為0的對角矩陣。
關于SVD是怎么回事,從代碼中分析:
代碼中使用 NumPy 的 linalg 模塊中的 svd 方法,如下。
U, S, V = np.linalg.svd(W)我們輸出C、W、U、S、V,如下所示,可以看出,C是共現矩陣、W是PPMI矩陣。可以看到S矩陣是降序排列的。
[0 1 0 0 0 0 0] [1 0 1 0 1 1 0] [0 1 0 1 0 0 0] [0 0 1 0 1 0 0] [0 1 0 1 0 0 0] [0 1 0 0 0 0 1] [0 0 0 0 0 1 0][[0. 1.807 0. 0. 0. 0. 0. ][1.807 0. 0.807 0. 0.807 0.807 0. ][0. 0.807 0. 1.807 0. 0. 0. ][0. 0. 1.807 0. 1.807 0. 0. ][0. 0.807 0. 1.807 0. 0. 0. ][0. 0.807 0. 0. 0. 0. 2.807][0. 0. 0. 0. 0. 2.807 0. ]][[-3.409e-01 -1.110e-16 -3.886e-16 -1.205e-01 0.000e+00 9.323e-01 2.664e-16][ 0.000e+00 -5.976e-01 1.802e-01 0.000e+00 -7.812e-01 0.000e+00 0.000e+00][-4.363e-01 -4.241e-17 -2.172e-16 -5.088e-01 -1.767e-17 -2.253e-01 -7.071e-01][-2.614e-16 -4.978e-01 6.804e-01 -4.382e-17 5.378e-01 9.951e-17 -3.521e-17][-4.363e-01 -3.229e-17 -1.654e-16 -5.088e-01 -1.345e-17 -2.253e-01 7.071e-01][-7.092e-01 -3.229e-17 -1.654e-16 6.839e-01 -1.345e-17 -1.710e-01 9.095e-17][ 3.056e-16 -6.285e-01 -7.103e-01 7.773e-17 3.169e-01 -2.847e-16 4.533e-17]][3.168e+00 3.168e+00 2.703e+00 2.703e+00 1.514e+00 1.514e+00 1.484e-16][[ 0.000e+00 -5.976e-01 -2.296e-16 -4.978e-01 -1.186e-16 2.145e-16 -6.285e-01][-3.409e-01 -1.110e-16 -4.363e-01 0.000e+00 -4.363e-01 -7.092e-01 0.000e+00][ 1.205e-01 -5.551e-16 5.088e-01 0.000e+00 5.088e-01 -6.839e-01 0.000e+00][-0.000e+00 -1.802e-01 -1.586e-16 -6.804e-01 6.344e-17 9.119e-17 7.103e-01][-9.323e-01 -5.551e-17 2.253e-01 0.000e+00 2.253e-01 1.710e-01 0.000e+00][-0.000e+00 7.812e-01 2.279e-16 -5.378e-01 3.390e-16 -2.717e-16 -3.169e-01][ 0.000e+00 2.632e-16 -7.071e-01 8.043e-18 7.071e-01 9.088e-17 1.831e-17]]下面研究U、S、V矩陣究竟是什么,添加如下代碼。
print("______________________") jym = np.dot(V, U) print(jym) print("______________________") jym2 = np.dot(U, V) print(jym2) print("______________________") V2 = np.transpose(V) jb = np.dot(V, V2) print(jb)輸出如下,那就可以把U和V的性質給搞懂了。從jb = np.dot(V, V2),輸出jb矩陣是單位矩陣,可知,V和U是正交矩陣。jym = np.dot(V, U),輸出jym主對角線元素全為0。U和V是列向量彼此正交的,公式里面把V轉置了也就是說,U的列向量和代碼里的V的行向量是正交的,所以用V乘U,他們的對角元是0。
______________________ [[-6.212e-17 1.000e+00 1.015e-08 2.968e-16 -5.249e-09 1.712e-16 6.754e-17][ 1.000e+00 1.597e-16 3.967e-16 -2.653e-08 1.099e-16 -1.336e-08 -5.293e-09][ 2.653e-08 3.025e-16 -2.284e-16 -1.000e+00 4.270e-16 1.110e-08 5.760e-09][ 3.718e-16 -1.015e-08 -1.000e+00 1.958e-16 4.416e-10 -2.641e-16 2.132e-16][ 1.336e-08 1.143e-16 2.378e-16 1.110e-08 3.405e-17 -1.000e+00 -2.662e-09][-1.096e-17 5.249e-09 4.416e-10 -4.753e-16 -1.000e+00 -4.458e-17 8.307e-17][-5.293e-09 -1.657e-16 7.657e-17 -5.760e-09 -1.925e-16 2.662e-09 1.000e+00]] ______________________ [[-8.977e-18 9.539e-01 -2.775e-17 -2.497e-01 3.879e-16 7.108e-18 -1.668e-01][ 9.539e-01 9.667e-18 1.764e-01 0.000e+00 1.764e-01 1.670e-01 0.000e+00][ 4.757e-18 1.764e-01 5.000e-01 6.846e-01 -5.000e-01 3.262e-17 -1.578e-02][-2.497e-01 -1.105e-16 6.846e-01 1.064e-16 6.846e-01 -2.032e-02 1.016e-16][ 3.622e-18 1.764e-01 -5.000e-01 6.846e-01 5.000e-01 1.192e-16 -1.578e-02][ 3.622e-18 1.670e-01 -1.220e-16 -2.032e-02 6.079e-17 9.043e-17 9.857e-01][-1.668e-01 2.741e-17 -1.578e-02 -5.192e-17 -1.578e-02 9.857e-01 -4.663e-17]] ______________________ [[ 1.000e+00 6.620e-17 7.901e-18 -1.015e-08 -8.632e-18 5.249e-09 -9.431e-17][ 6.620e-17 1.000e+00 2.653e-08 -3.141e-18 1.336e-08 -1.414e-16 -5.293e-09][ 7.901e-18 2.653e-08 1.000e+00 -1.074e-17 -1.110e-08 4.054e-17 5.760e-09][-1.015e-08 -3.141e-18 -1.074e-17 1.000e+00 4.150e-18 -4.416e-10 1.171e-16][-8.632e-18 1.336e-08 -1.110e-08 4.150e-18 1.000e+00 3.792e-17 -2.662e-09][ 5.249e-09 -1.414e-16 4.054e-17 -4.416e-10 3.792e-17 1.000e+00 2.740e-16][-9.431e-17 -5.293e-09 5.760e-09 1.171e-16 -2.662e-09 2.740e-16 1.000e+00]]SVD的直觀意義是什么:
U是正交矩陣。這個正交矩陣構成了一些空間中的基軸 (基向量),可以將矩陣U作為“單詞空間”。 S是對角矩陣,奇異值在對角線上降序排列,奇異值的大小也就意味著“對應的基軸”的重要性。奇異值小,對應基軸重要性就小,所以可以通過去除U矩陣中的多余的列向量來近似原始矩陣。從而把單詞向量用降維后的矩陣表示。示意圖如下。
稀疏向量W經過 SVD 被轉化成了密集向量U。如果要對這個密集向量降維,比如把它降維到二維向量,取出U的前兩個元素即可。
text = 'You say goodbye and I say hello.' corpus, word_to_id, id_to_word = preprocess(text) vocab_size = len(id_to_word) C = create_co_matrix(corpus, vocab_size, window_size=1) W = ppmi(C)# SVD U, S, V = np.linalg.svd(W)np.set_printoptions(precision=3) # 有效位數為3位 for i in range(7):print(C[i])print(U) # plot for word, word_id in word_to_id.items():plt.annotate(word, (U[word_id, 0], U[word_id, 1])) plt.scatter(U[:,0], U[:,1], alpha=0.5) plt.show()輸出的U:
[[-3.409e-01 -1.110e-16 -3.886e-16 -1.205e-01 0.000e+00 9.323e-012.664e-16][ 0.000e+00 -5.976e-01 1.802e-01 0.000e+00 -7.812e-01 0.000e+000.000e+00][-4.363e-01 -4.241e-17 -2.172e-16 -5.088e-01 -1.767e-17 -2.253e-01-7.071e-01][-2.614e-16 -4.978e-01 6.804e-01 -4.382e-17 5.378e-01 9.951e-17-3.521e-17][-4.363e-01 -3.229e-17 -1.654e-16 -5.088e-01 -1.345e-17 -2.253e-017.071e-01][-7.092e-01 -3.229e-17 -1.654e-16 6.839e-01 -1.345e-17 -1.710e-019.095e-17][ 3.056e-16 -6.285e-01 -7.103e-01 7.773e-17 3.169e-01 -2.847e-164.533e-17]]用二維向量表示各個單詞,并把它們畫在圖上,畫出的圖如下:goodbye 和 hello、you 和 i 位置接近,這個結果復合之前做的基于余弦相似度的結果。
總結
以上是生活随笔為你收集整理的基于SVD的降维优化的全部內容,希望文章能夠幫你解決所遇到的問題。
- 上一篇: c++primer 3.2,3.3练习题
- 下一篇: android 获取monkey日志_安