特征选择的3种方法
當(dāng)數(shù)據(jù)維數(shù)比較大時(shí),就需要進(jìn)行降維,特征選擇是降維的一種主要方式,又包括3種方法:Filter、Wrapper和Enbedding。
1. Filter
過濾器方法,這種方法首先選定特征,再來進(jìn)行學(xué)習(xí)。根據(jù)每一個(gè)屬性的一些指標(biāo)(如方差等),來確定這個(gè)屬性的重要程度,然后對所有屬性按照重要程度排序,從高到低的選擇屬性。選定了屬性以后,再來進(jìn)行訓(xùn)練。比如Fisher Score、Laplacian Score等。這種方法其實(shí)不大好,因?yàn)闆Q定特征選擇效果的不是單個(gè)的屬性,而是屬性的集合,比如屬性A、B、C,單個(gè)來看效果不好,但是它們組合起來效果有可能不錯。
2. Wrapper
包裹器方法,這種方法把選定的特征集用分類器進(jìn)行訓(xùn)練,用訓(xùn)練效果(如準(zhǔn)確率等)來作為特征集的評價(jià)。比如將啟發(fā)式搜索、GA等。這種方法和分類器相結(jié)合,比較直觀,和Filter相比也更加合理。缺點(diǎn)是計(jì)算開銷較大。
3. Embedding
嵌入式方法,即把特征選擇的過程作為學(xué)習(xí)過程的一部分,在學(xué)習(xí)的過程中進(jìn)行特征選擇,最典型的如決策樹算法。
轉(zhuǎn)載于:https://www.cnblogs.com/mstk/p/8463496.html
總結(jié)
- 上一篇: Mysql快照读和当前读
- 下一篇: 以ASK调制解调为例观察采样与成型滤波的