日韩性视频-久久久蜜桃-www中文字幕-在线中文字幕av-亚洲欧美一区二区三区四区-撸久久-香蕉视频一区-久久无码精品丰满人妻-国产高潮av-激情福利社-日韩av网址大全-国产精品久久999-日本五十路在线-性欧美在线-久久99精品波多结衣一区-男女午夜免费视频-黑人极品ⅴideos精品欧美棵-人人妻人人澡人人爽精品欧美一区-日韩一区在线看-欧美a级在线免费观看

歡迎訪問 生活随笔!

生活随笔

當前位置: 首頁 > 编程资源 > 编程问答 >内容正文

编程问答

【数据分析学习】线性降维方法

發布時間:2023/12/15 编程问答 27 豆豆
生活随笔 收集整理的這篇文章主要介紹了 【数据分析学习】线性降维方法 小編覺得挺不錯的,現在分享給大家,幫大家做個參考.
  • 主成分分析法PCA
    主成分分析通過線性投影,將高維的數據映射到低維的空間中表示,并期望在所投影的維度上數據的方差最大,以此達到使用較少的數據維度來保留較多的原數據點特性的效果。
  • from sklearn.decomposition import PCA PCA(n_components=2).fit_transform(iris.data) >>> import numpy as np >>> from sklearn.decomposition import PCA >>> X = np.array([[-1, -1], [-2, -1], [-3, -2], [1, 1], [2, 1], [3, 2]]) >>> pca = PCA(n_components=2) >>> pca.fit(X) PCA(n_components=2) >>> print(pca.explained_variance_ratio_) [0.9924... 0.0075...] >>> print(pca.singular_values_) [6.30061... 0.54980...] >>> pca = PCA(n_components=2, svd_solver='full') >>> pca.fit(X) PCA(n_components=2, svd_solver='full') >>> print(pca.explained_variance_ratio_) [0.9924... 0.00755...] >>> print(pca.singular_values_) [6.30061... 0.54980...] >>> pca = PCA(n_components=1, svd_solver='arpack') >>> pca.fit(X) PCA(n_components=1, svd_solver='arpack') >>> print(pca.explained_variance_ratio_) [0.99244...] >>> print(pca.singular_values_) [6.30061...]
  • 線性判別分析法LDA
    線性判別分析法是一種有監督的線性降維方法,與PCA盡可能多地保留數據信息不同,LDA的目的是使降維后的數據點盡可能容易被區分
  • from sklearn.discriminant_analysis import LinearDiscriminantAnalysis as LDA LDA(n_components=2).fit_transform(iris.data, iris.target)
  • 獨立成分分析ICA
    獨立成分分析是從多元(多維)統計數據中尋找潛在因子或成分的一種方法.ICA與其它的方法重要的區別在于,它尋找滿足統計獨立和非高斯的成分。
  • from sklearn.decomposition import FastICA as ICA ICA(n_components=2).fit_transform(iris.data, iris.target)
  • 特征選擇
    特征選擇是一個很重要的數據預處理過程,在現實的機器學習任務中,獲得數據之后通常進行特征選擇。進行特征選擇的原因:
    (1)維數災難問題
    (2)去除不相關特征,往往會降低學習任務的難度。
  • 總結

    以上是生活随笔為你收集整理的【数据分析学习】线性降维方法的全部內容,希望文章能夠幫你解決所遇到的問題。

    如果覺得生活随笔網站內容還不錯,歡迎將生活随笔推薦給好友。