输入参数的数目不足_sklearn.decomposition.PCA 参数速查手册
sklearn常用的API參數(shù)解析:sklearn.linear_model.LinearRegression
調(diào)用
sklearn.decomposition.PCA(n_components=None, copy=True, whiten=False, svd_solver='auto', tol=0.0, iterated_power='auto', random_state=None)參數(shù)
n_components
釋義
PCA 算法中所要保留的主成分個(gè)數(shù) n,也即保留下來的特征個(gè)數(shù) n
設(shè)置
int 或者 string,缺省時(shí)默認(rèn)為 None,所有成分被保留。賦值為 int,比如=1,將把原始數(shù)據(jù)降到一個(gè)維度 賦值為 string,比如'mle',將自動(dòng)選取特征個(gè)數(shù) n,使得滿足所要求的方差百分比
whiten
釋義
白化,使得每個(gè)特征具有相同的方差。
設(shè)置
bool,缺省時(shí)默認(rèn)為 False 如果 PCA 降維后有后續(xù)的數(shù)據(jù)處理動(dòng)作,可以考慮白化
svd_solver
釋義
定奇異值分解 SVD 的方法
設(shè)置
auto PCA 類自動(dòng)選擇下述三種算法權(quán)衡
randomized
適用于數(shù)據(jù)量大,數(shù)據(jù)維度多同時(shí)主成分?jǐn)?shù)目比例又較低的 PCA 降維
full
傳統(tǒng)意義上的 SVD,使用了 scipy 庫(kù)對(duì)應(yīng)的實(shí)現(xiàn)
arpack
直接使用 scipy 庫(kù)的 sparse SVD 實(shí)現(xiàn),和 randomized 的適用場(chǎng)景類似
copy
釋義
表示是否在運(yùn)行算法時(shí),將原始訓(xùn)練數(shù)據(jù)復(fù)制一份。
設(shè)置
若為 True,則運(yùn)行 PCA 算法后,原始訓(xùn)練數(shù)據(jù)的值不會(huì)有任何改變,因?yàn)槭窃谠紨?shù)據(jù)的副本上進(jìn)行運(yùn)算;若為 False,則運(yùn)行 PCA 算法后,原始訓(xùn)練數(shù)據(jù)的值會(huì)改,因?yàn)槭窃谠紨?shù)據(jù)上進(jìn)行降維計(jì)算。
tol
停止求解的標(biāo)準(zhǔn),float 類型,默認(rèn)值為 0 當(dāng) svd_solver 選擇‘a(chǎn)rpack’時(shí),其運(yùn)行 SVD 算法的容錯(cuò)率
iterated_power
int 類型或者 str 類型,默認(rèn)值為‘a(chǎn)uto’ 當(dāng) svd_solver 選擇‘randomized’時(shí),其運(yùn)行 SVD 算法的的迭代次數(shù)
random_state
int 類型,默認(rèn)為 None 偽隨機(jī)數(shù)發(fā)生器的種子,在混洗數(shù)據(jù)時(shí)用于概率估計(jì)
屬性
components_
返回具有最大方差的成分
explained_variance_
降維后的各主成分的方差值。方差值越大,則說明越是重要的主成分
explained_variance_ratio_
降維后的各主成分的方差值占總方差值的比例,這個(gè)比例越大,則越是重要的主成分
singular_values_
對(duì)應(yīng)的每個(gè)成分的奇異值
mean_
根據(jù)訓(xùn)練集估算的特征經(jīng)驗(yàn)均值=X.mean(axis = 0)
n_components_
返回所保留的成分個(gè)數(shù)n
n_features_
訓(xùn)練數(shù)據(jù)的特征個(gè)數(shù)
n_samples_
訓(xùn)練數(shù)據(jù)的樣本數(shù)
noise_variance_
返回噪聲的協(xié)方差
方法
fit(self,?X[,?y])
用數(shù)據(jù)X來訓(xùn)練PCA模型
fit_transform(self,?X[,?y])
用X來訓(xùn)練PCA模型,同時(shí)返回降維后的數(shù)據(jù)
get_covariance(self)
計(jì)算數(shù)據(jù)協(xié)方差( 用生成模型)
get_params(self[,?deep])
獲取PCA的參數(shù)
get_precision(self)
計(jì)算數(shù)據(jù)精度矩陣( 用生成模型)
inverse_transform(self,?X)
將降維后的數(shù)據(jù)轉(zhuǎn)換成原始數(shù)據(jù),但可能不會(huì)完全一樣
score(self,?X[,?y])
計(jì)算所有樣本的log似然平均值
score_samples(self,?X)
返回每個(gè)樣本的對(duì)數(shù)似然值
set_params(self,?**params)
設(shè)置PCA的參數(shù)
transform(self,?X)
將數(shù)據(jù)X轉(zhuǎn)換成降維后的數(shù)據(jù),當(dāng)模型訓(xùn)練好后,對(duì)于新輸入的數(shù)據(jù),也可以用transform方法來降維
(完)
總結(jié)
以上是生活随笔為你收集整理的输入参数的数目不足_sklearn.decomposition.PCA 参数速查手册的全部?jī)?nèi)容,希望文章能夠幫你解決所遇到的問題。
- 上一篇: python天气预报的功能介绍_pyth
- 下一篇: 北京环球影城孕妇能玩吗