python人工智能——机器学习——数据的降维
生活随笔
收集整理的這篇文章主要介紹了
python人工智能——机器学习——数据的降维
小編覺得挺不錯的,現在分享給大家,幫大家做個參考.
數據降維
1.特征選擇
2.主成分分析
特征選擇
特征選擇原因
1.冗余:部分特征的相關度高,容易消耗計算性能。
2.噪聲:部分特征對預測結果有影響。
1.特征選擇是什么
特征選擇就是單純地從提取到的所有特征中選擇部分特征作為訓練集特征,特征在選擇前和選擇后可以改變值、也不改變值,但是選擇后的特征維數肯定比選擇前小。
主要方法(三大武器):
Filter(過濾式):VarianceThreshold
Embedded(嵌入式):正則化、決策樹
Wrapper(包裹式)
Filter(過濾式):VarianceThreshold
sklearn特征選擇API
sklearn.feature_selection.VarianceThreshold
VarianceThreshold語法
VarianceThreshold(threshold = 0.0)刪除所有低方差特征Variance.fit_transform(X,y) X:numpy array格式的數據[n_samples,n_features]返回值:訓練集差異低于threshold的特征將被刪除。默認值是保留所有非零方差特征,即刪除所有樣本中具有相同值的特征。流程:
1、初始化VarianceThreshold,指定閥值方差
2、調用fit_transform
演示:
from sklearn.feature_selection import VarianceThresholddef var():'''特征選擇-刪除低方差的特征:return:'''var=VarianceThreshold(threshold=0.0)data=var.fit_transform([[0, 2, 0, 3], [0, 1, 4, 3], [0, 1, 1, 3]])print(data)return Noneif __name__=='__main__':var()
刪除了方差為零的列。
主成分分析
sklearn降維API
sklearn. decomposition
PCA(主成分分析)
PCA是什么
本質:PCA是一種分析、簡化數據集的技術。
目的:是數據維數壓縮,盡可能降低原數據的維數(復雜度),損失少量信息。
作用:可以削減回歸分析或者聚類分析中特征的數量。
特征數量達到上百的時候,考慮數據我的簡化,特征也會改變,特征數量也會減少。
高維度數據容易出現的問題:特征之間通常是相關的。
數據:
(-1,-2)
(-1, 0)
( 0, 0)
( 2, 1)
( 0, 1)
要求:將這個二維的數據簡化成一維?
通過公式計算
矩陣運算得出P為
PCA語法
PCA(n_components=None)將數據分解為較低維數空間PCA.fit_transform(X) X:numpy array格式的數據[n_samples,n_features]返回值:轉換后指定維度的array流程:
1、初始化PCA,指定減少后的維度
2、調用fit_transform
演示:
數據由三個特征降為兩個特征。
2.sklearn特征選擇API
3.其它特征選擇方法
神經網絡
總結
以上是生活随笔為你收集整理的python人工智能——机器学习——数据的降维的全部內容,希望文章能夠幫你解決所遇到的問題。
- 上一篇: Common Subsequence
- 下一篇: websocket python爬虫_p