日韩性视频-久久久蜜桃-www中文字幕-在线中文字幕av-亚洲欧美一区二区三区四区-撸久久-香蕉视频一区-久久无码精品丰满人妻-国产高潮av-激情福利社-日韩av网址大全-国产精品久久999-日本五十路在线-性欧美在线-久久99精品波多结衣一区-男女午夜免费视频-黑人极品ⅴideos精品欧美棵-人人妻人人澡人人爽精品欧美一区-日韩一区在线看-欧美a级在线免费观看

歡迎訪問 生活随笔!

生活随笔

當前位置: 首頁 > 编程资源 > 编程问答 >内容正文

编程问答

机器学习降维方法总结

發(fā)布時間:2025/5/22 编程问答 14 豆豆
生活随笔 收集整理的這篇文章主要介紹了 机器学习降维方法总结 小編覺得挺不錯的,現(xiàn)在分享給大家,幫大家做個參考.

降維在機器學習里面再正常不過了,這里總結(jié)了降維的一些方法,主要參考了陳利人老師的“數(shù)據(jù)分析領(lǐng)域中最為人稱道的七種降維方法”(在微信公眾號看到的,無法提供鏈接,有興趣的可以搜索看原文)。不過這篇文章除了PCA,其他的降維方法多多少少有點特征工程的意思了。

缺失值比率 (Missing Values Ratio)

該方法的是基于包含太多缺失值的數(shù)據(jù)列包含有用信息的可能性較少。因此,可以將數(shù)據(jù)列缺失值大于某個閾值的列去掉。閾值越高,降維方法更為積極,即降維越少。

低方差濾波

與上個方法相似,該方法假設(shè)數(shù)據(jù)列變化非常小的列包含的信息量少。因此,所有的數(shù)據(jù)列方差小的列被移除。需要注意的一點是:方差與數(shù)據(jù)范圍相關(guān)的,因此在采用該方法前需要對數(shù)據(jù)做歸一化處理。

高相關(guān)濾波

高相關(guān)濾波認為當兩列數(shù)據(jù)變化趨勢相似時,它們包含的信息也顯示。這樣,使用相似列中的一列就可以滿足機器學習模型。對于數(shù)值列之間的相似性通過計算相關(guān)系數(shù)來表示,對于名詞類列的相關(guān)系數(shù)可以通過計算皮爾遜卡方值來表示。相關(guān)系數(shù)大于某個閾值的兩列只保留一列。同樣要注意的是:相關(guān)系數(shù)對范圍敏感,所以在計算之前也需要對數(shù)據(jù)進行歸一化處理。

隨機森林/組合樹

組合決策樹通常又被成為隨機森林,它在進行特征選擇與構(gòu)建有效的分類器時非常有用。一種常用的降維方法是對目標屬性產(chǎn)生許多巨大的樹,然后根據(jù)對每個屬性的統(tǒng)計結(jié)果找到信息量最大的特征子集。例如,我們能夠?qū)σ粋€非常巨大的數(shù)據(jù)集生成非常層次非常淺的樹,每顆樹只訓練一小部分屬性。如果一個屬性經(jīng)常成為最佳分裂屬性,那么它很有可能是需要保留的信息特征。對隨機森林數(shù)據(jù)屬性的統(tǒng)計評分會向我們揭示與其它屬性相比,哪個屬性才是預測能力最好的屬性。

主成分分析 (PCA)

主成分分析是一個統(tǒng)計過程,該過程通過正交變換將原始的 n 維數(shù)據(jù)集變換到一個新的被稱做主成分的數(shù)據(jù)集中。變換后的結(jié)果中,第一個主成分具有最大的方差值,每個后續(xù)的成分在與前述主成分正交條件限制下與具有最大方差。降維時僅保存前 m(m < n) 個主成分即可保持最大的數(shù)據(jù)信息量。需要注意的是主成分變換對正交向量的尺度敏感。數(shù)據(jù)在變換前需要進行歸一化處理。同樣也需要注意的是,新的主成分并不是由實際系統(tǒng)產(chǎn)生的,因此在進行 PCA 變換后會喪失數(shù)據(jù)的解釋性。如果說,數(shù)據(jù)的解釋能力對你的分析來說很重要,那么 PCA 對你來說可能就不適用了。

反向特征消除

在該方法中,所有分類算法先用 n 個特征進行訓練。每次降維操作,采用 n-1 個特征對分類器訓練 n 次,得到新的 n 個分類器。將新分類器中錯分率變化最小的分類器所用的 n-1 維特征作為降維后的特征集。不斷的對該過程進行迭代,即可得到降維后的結(jié)果。第k 次迭代過程中得到的是 n-k 維特征分類器。通過選擇最大的錯誤容忍率,我們可以得到在選擇分類器上達到指定分類性能最小需要多少個特征。

前向特征構(gòu)造

前向特征構(gòu)建是反向特征消除的反過程。在前向特征過程中,我們從 1 個特征開始,每次訓練添加一個讓分類器性能提升最大的特征。前向特征構(gòu)造和反向特征消除都十分耗時。它們通常用于輸入維數(shù)已經(jīng)相對較低的數(shù)據(jù)集。

除了本博客中提到的其中,還包括:隨機投影(Random Projections)、非負矩陣分解(N0n-negative Matrix Factorization),自動編碼(Auto-encoders),卡方檢測與信息增益(Chi-square and information gain), 多維標定(Multidimensional Scaling), 相關(guān)性分析(Coorespondence Analysis), 因子分析(Factor Analysis)、聚類(Clustering)以及貝葉斯模型(Bayesian Models)。

轉(zhuǎn)載于:https://www.cnblogs.com/-Sai-/p/6868534.html

總結(jié)

以上是生活随笔為你收集整理的机器学习降维方法总结的全部內(nèi)容,希望文章能夠幫你解決所遇到的問題。

如果覺得生活随笔網(wǎng)站內(nèi)容還不錯,歡迎將生活随笔推薦給好友。