生活随笔
收集整理的這篇文章主要介紹了
【数据分析学习】线性降维方法
小編覺得挺不錯的,現在分享給大家,幫大家做個參考.
主成分分析法PCA
主成分分析通過線性投影,將高維的數據映射到低維的空間中表示,并期望在所投影的維度上數據的方差最大,以此達到使用較少的數據維度來保留較多的原數據點特性的效果。
from sklearn
.decomposition
import PCA
PCA
(n_components
=2).fit_transform
(iris
.data
)
>>> import numpy
as np
>>> from sklearn
.decomposition
import PCA
>>> X
= np
.array
([[-1, -1], [-2, -1], [-3, -2], [1, 1], [2, 1], [3, 2]])
>>> pca
= PCA
(n_components
=2)
>>> pca
.fit
(X
)
PCA
(n_components
=2)
>>> print(pca
.explained_variance_ratio_
)
[0.9924... 0.0075...]
>>> print(pca
.singular_values_
)
[6.30061... 0.54980...]
>>> pca
= PCA
(n_components
=2, svd_solver
='full')
>>> pca
.fit
(X
)
PCA
(n_components
=2, svd_solver
='full')
>>> print(pca
.explained_variance_ratio_
)
[0.9924... 0.00755...]
>>> print(pca
.singular_values_
)
[6.30061... 0.54980...]
>>> pca
= PCA
(n_components
=1, svd_solver
='arpack')
>>> pca
.fit
(X
)
PCA
(n_components
=1, svd_solver
='arpack')
>>> print(pca
.explained_variance_ratio_
)
[0.99244...]
>>> print(pca
.singular_values_
)
[6.30061...]
線性判別分析法LDA
線性判別分析法是一種有監督的線性降維方法,與PCA盡可能多地保留數據信息不同,LDA的目的是使降維后的數據點盡可能容易被區分
from sklearn
.discriminant_analysis
import LinearDiscriminantAnalysis
as LDA
LDA
(n_components
=2).fit_transform
(iris
.data
, iris
.target
)
獨立成分分析ICA
獨立成分分析是從多元(多維)統計數據中尋找潛在因子或成分的一種方法.ICA與其它的方法重要的區別在于,它尋找滿足統計獨立和非高斯的成分。
from sklearn
.decomposition
import FastICA
as ICA
ICA
(n_components
=2).fit_transform
(iris
.data
, iris
.target
)
特征選擇
特征選擇是一個很重要的數據預處理過程,在現實的機器學習任務中,獲得數據之后通常進行特征選擇。進行特征選擇的原因:
(1)維數災難問題
(2)去除不相關特征,往往會降低學習任務的難度。
總結
以上是生活随笔為你收集整理的【数据分析学习】线性降维方法的全部內容,希望文章能夠幫你解決所遇到的問題。
如果覺得生活随笔網站內容還不錯,歡迎將生活随笔推薦給好友。