特征选择的3种方法
當(dāng)數(shù)據(jù)維數(shù)比較大時,就需要進行降維,特征選擇是降維的一種主要方式,又包括3種方法:Filter、Wrapper和Enbedding。
1. Filter
過濾器方法,這種方法首先選定特征,再來進行學(xué)習(xí)。根據(jù)每一個屬性的一些指標(biāo)(如方差等),來確定這個屬性的重要程度,然后對所有屬性按照重要程度排序,從高到低的選擇屬性。選定了屬性以后,再來進行訓(xùn)練。比如Fisher Score、Laplacian Score等。這種方法其實不大好,因為決定特征選擇效果的不是單個的屬性,而是屬性的集合,比如屬性A、B、C,單個來看效果不好,但是它們組合起來效果有可能不錯。
2. Wrapper
包裹器方法,這種方法把選定的特征集用分類器進行訓(xùn)練,用訓(xùn)練效果(如準(zhǔn)確率等)來作為特征集的評價。比如將啟發(fā)式搜索、GA等。這種方法和分類器相結(jié)合,比較直觀,和Filter相比也更加合理。缺點是計算開銷較大。
3. Embedding
嵌入式方法,即把特征選擇的過程作為學(xué)習(xí)過程的一部分,在學(xué)習(xí)的過程中進行特征選擇,最典型的如決策樹算法。
轉(zhuǎn)載于:https://www.cnblogs.com/mstk/p/8463496.html
總結(jié)
- 上一篇: Mysql快照读和当前读
- 下一篇: 以ASK调制解调为例观察采样与成型滤波的