日韩性视频-久久久蜜桃-www中文字幕-在线中文字幕av-亚洲欧美一区二区三区四区-撸久久-香蕉视频一区-久久无码精品丰满人妻-国产高潮av-激情福利社-日韩av网址大全-国产精品久久999-日本五十路在线-性欧美在线-久久99精品波多结衣一区-男女午夜免费视频-黑人极品ⅴideos精品欧美棵-人人妻人人澡人人爽精品欧美一区-日韩一区在线看-欧美a级在线免费观看

歡迎訪問 生活随笔!

生活随笔

當(dāng)前位置: 首頁 > 编程资源 > 编程问答 >内容正文

编程问答

输入参数的数目不足_sklearn.decomposition.PCA 参数速查手册

發(fā)布時(shí)間:2023/12/1 编程问答 33 豆豆
生活随笔 收集整理的這篇文章主要介紹了 输入参数的数目不足_sklearn.decomposition.PCA 参数速查手册 小編覺得挺不錯(cuò)的,現(xiàn)在分享給大家,幫大家做個(gè)參考.

sklearn常用的API參數(shù)解析:sklearn.linear_model.LinearRegression

調(diào)用

sklearn.decomposition.PCA(n_components=None, copy=True, whiten=False, svd_solver='auto', tol=0.0, iterated_power='auto', random_state=None)

參數(shù)

n_components

釋義

PCA 算法中所要保留的主成分個(gè)數(shù) n,也即保留下來的特征個(gè)數(shù) n

設(shè)置

int 或者 string,缺省時(shí)默認(rèn)為 None,所有成分被保留。賦值為 int,比如=1,將把原始數(shù)據(jù)降到一個(gè)維度 賦值為 string,比如'mle',將自動(dòng)選取特征個(gè)數(shù) n,使得滿足所要求的方差百分比

whiten

釋義

白化,使得每個(gè)特征具有相同的方差。

設(shè)置

bool,缺省時(shí)默認(rèn)為 False 如果 PCA 降維后有后續(xù)的數(shù)據(jù)處理動(dòng)作,可以考慮白化

svd_solver

釋義

定奇異值分解 SVD 的方法

設(shè)置

auto PCA 類自動(dòng)選擇下述三種算法權(quán)衡

randomized

適用于數(shù)據(jù)量大,數(shù)據(jù)維度多同時(shí)主成分?jǐn)?shù)目比例又較低的 PCA 降維

full

傳統(tǒng)意義上的 SVD,使用了 scipy 庫(kù)對(duì)應(yīng)的實(shí)現(xiàn)

arpack

直接使用 scipy 庫(kù)的 sparse SVD 實(shí)現(xiàn),和 randomized 的適用場(chǎng)景類似

copy

釋義

表示是否在運(yùn)行算法時(shí),將原始訓(xùn)練數(shù)據(jù)復(fù)制一份。

設(shè)置

若為 True,則運(yùn)行 PCA 算法后,原始訓(xùn)練數(shù)據(jù)的值不會(huì)有任何改變,因?yàn)槭窃谠紨?shù)據(jù)的副本上進(jìn)行運(yùn)算;若為 False,則運(yùn)行 PCA 算法后,原始訓(xùn)練數(shù)據(jù)的值會(huì)改,因?yàn)槭窃谠紨?shù)據(jù)上進(jìn)行降維計(jì)算。

tol

停止求解的標(biāo)準(zhǔn),float 類型,默認(rèn)值為 0 當(dāng) svd_solver 選擇‘a(chǎn)rpack’時(shí),其運(yùn)行 SVD 算法的容錯(cuò)率

iterated_power

int 類型或者 str 類型,默認(rèn)值為‘a(chǎn)uto’ 當(dāng) svd_solver 選擇‘randomized’時(shí),其運(yùn)行 SVD 算法的的迭代次數(shù)

random_state

int 類型,默認(rèn)為 None 偽隨機(jī)數(shù)發(fā)生器的種子,在混洗數(shù)據(jù)時(shí)用于概率估計(jì)

屬性

components_

返回具有最大方差的成分

explained_variance_

降維后的各主成分的方差值。方差值越大,則說明越是重要的主成分

explained_variance_ratio_

降維后的各主成分的方差值占總方差值的比例,這個(gè)比例越大,則越是重要的主成分

singular_values_

對(duì)應(yīng)的每個(gè)成分的奇異值

mean_

根據(jù)訓(xùn)練集估算的特征經(jīng)驗(yàn)均值=X.mean(axis = 0)

n_components_

返回所保留的成分個(gè)數(shù)n

n_features_

訓(xùn)練數(shù)據(jù)的特征個(gè)數(shù)

n_samples_

訓(xùn)練數(shù)據(jù)的樣本數(shù)

noise_variance_

返回噪聲的協(xié)方差

方法

fit(self,?X[,?y])

用數(shù)據(jù)X來訓(xùn)練PCA模型

fit_transform(self,?X[,?y])

用X來訓(xùn)練PCA模型,同時(shí)返回降維后的數(shù)據(jù)

get_covariance(self)

計(jì)算數(shù)據(jù)協(xié)方差( 用生成模型)

get_params(self[,?deep])

獲取PCA的參數(shù)

get_precision(self)

計(jì)算數(shù)據(jù)精度矩陣( 用生成模型)

inverse_transform(self,?X)

將降維后的數(shù)據(jù)轉(zhuǎn)換成原始數(shù)據(jù),但可能不會(huì)完全一樣

score(self,?X[,?y])

計(jì)算所有樣本的log似然平均值

score_samples(self,?X)

返回每個(gè)樣本的對(duì)數(shù)似然值

set_params(self,?**params)

設(shè)置PCA的參數(shù)

transform(self,?X)

將數(shù)據(jù)X轉(zhuǎn)換成降維后的數(shù)據(jù),當(dāng)模型訓(xùn)練好后,對(duì)于新輸入的數(shù)據(jù),也可以用transform方法來降維

(完)


總結(jié)

以上是生活随笔為你收集整理的输入参数的数目不足_sklearn.decomposition.PCA 参数速查手册的全部?jī)?nèi)容,希望文章能夠幫你解決所遇到的問題。

如果覺得生活随笔網(wǎng)站內(nèi)容還不錯(cuò),歡迎將生活随笔推薦給好友。