日韩性视频-久久久蜜桃-www中文字幕-在线中文字幕av-亚洲欧美一区二区三区四区-撸久久-香蕉视频一区-久久无码精品丰满人妻-国产高潮av-激情福利社-日韩av网址大全-国产精品久久999-日本五十路在线-性欧美在线-久久99精品波多结衣一区-男女午夜免费视频-黑人极品ⅴideos精品欧美棵-人人妻人人澡人人爽精品欧美一区-日韩一区在线看-欧美a级在线免费观看

歡迎訪問 生活随笔!

生活随笔

當前位置: 首頁 > 编程语言 > python >内容正文

python

python人工智能——机器学习——数据的降维

發布時間:2024/4/30 python 39 豆豆
生活随笔 收集整理的這篇文章主要介紹了 python人工智能——机器学习——数据的降维 小編覺得挺不錯的,現在分享給大家,幫大家做個參考.

數據降維

1.特征選擇

2.主成分分析

特征選擇

特征選擇原因

1.冗余:部分特征的相關度高,容易消耗計算性能。
2.噪聲:部分特征對預測結果有影響。

1.特征選擇是什么

特征選擇就是單純地從提取到的所有特征中選擇部分特征作為訓練集特征,特征在選擇前和選擇后可以改變值、也不改變值,但是選擇后的特征維數肯定比選擇前小。

主要方法(三大武器):

Filter(過濾式):VarianceThreshold
Embedded(嵌入式):正則化、決策樹
Wrapper(包裹式)
Filter(過濾式):VarianceThreshold

sklearn特征選擇API
sklearn.feature_selection.VarianceThreshold

VarianceThreshold語法

VarianceThreshold(threshold = 0.0)刪除所有低方差特征Variance.fit_transform(X,y) X:numpy array格式的數據[n_samples,n_features]返回值:訓練集差異低于threshold的特征將被刪除。默認值是保留所有非零方差特征,即刪除所有樣本中具有相同值的特征。

流程:
1、初始化VarianceThreshold,指定閥值方差
2、調用fit_transform

演示:

from sklearn.feature_selection import VarianceThresholddef var():'''特征選擇-刪除低方差的特征:return:'''var=VarianceThreshold(threshold=0.0)data=var.fit_transform([[0, 2, 0, 3], [0, 1, 4, 3], [0, 1, 1, 3]])print(data)return Noneif __name__=='__main__':var()


刪除了方差為零的列。

主成分分析

sklearn降維API
sklearn. decomposition

PCA(主成分分析)

PCA是什么

本質:PCA是一種分析、簡化數據集的技術。
目的:是數據維數壓縮,盡可能降低原數據的維數(復雜度),損失少量信息。
作用:可以削減回歸分析或者聚類分析中特征的數量。

特征數量達到上百的時候,考慮數據我的簡化,特征也會改變,特征數量也會減少。

高維度數據容易出現的問題:特征之間通常是相關的。

數據:
(-1,-2)
(-1, 0)
( 0, 0)
( 2, 1)
( 0, 1)

要求:將這個二維的數據簡化成一維?
通過公式計算

矩陣運算得出P為

PCA語法

PCA(n_components=None)將數據分解為較低維數空間PCA.fit_transform(X) X:numpy array格式的數據[n_samples,n_features]返回值:轉換后指定維度的array

流程:
1、初始化PCA,指定減少后的維度
2、調用fit_transform
演示:

from sklearn.decomposition import PCAdef pca():'''主成分分析進行數據降維:return: None'''pca=PCA(n_components=0.9)data=pca.fit_transform([[2,8,4,5],[6,3,0,8],[5,4,9,1]])print(data)return Noneif __name__=="__main__":pca()


數據由三個特征降為兩個特征。

2.sklearn特征選擇API

3.其它特征選擇方法

神經網絡

總結

以上是生活随笔為你收集整理的python人工智能——机器学习——数据的降维的全部內容,希望文章能夠幫你解決所遇到的問題。

如果覺得生活随笔網站內容還不錯,歡迎將生活随笔推薦給好友。