【特征选择】嵌入式特征选择法
生活随笔
收集整理的這篇文章主要介紹了
【特征选择】嵌入式特征选择法
小編覺得挺不錯的,現在分享給大家,幫大家做個參考.
原創博文,轉載請注明出處!
??? 嵌入式特征選擇法使用機器學習模型進行特征選擇。特征選擇過程與學習器相關,特征選擇過程與學習器訓練過程融合,在學習器訓練過程中自動進行特征選擇。
?
通過L1正則化來選擇特征
?
????? sklearn在feature_selection模塊中集成的模型SelectFromModel實現了嵌入式特征選擇,SelectFromModel模型通過sklearn內置的機器學習模型提供的特征重要性指標coef_或feature_importance對特征進行選擇,即如果特征的coef_或feature_importance的值低于預設的閾值,則移除低于閾值的特征。其中閾值的設定可以指定,也可以通過啟發式方法選擇合適的閾值。啟發式的方法通常有mean、median等。
# L1+LR特征選擇
# -*- coding: utf-8 -*- """ # author: wanglei5205 # blog:http://cnblogs.com/wanglei5205 # github:http://github.com/wanglei5205""" ### 生成數據 from sklearn.datasets import make_classification X, y = make_classification(n_samples=1000, # 樣本個數n_features=25, # 特征個數n_informative=3, # 有效特征個數n_redundant=2, # 冗余特征個數(有效特征的隨機組合)n_repeated=0, # 重復特征個數(有效特征和冗余特征的隨機組合)n_classes=8, # 樣本類別n_clusters_per_class=1, # 簇的個數random_state=0)### 特征選擇 from sklearn.linear_model import LogisticRegression lr = LogisticRegression(penalty="l1",C=0.1)from sklearn.feature_selection import SelectFromModel X_L1 = SelectFromModel(estimator = lr).fit_transform(X,y)### 數據劃分 from sklearn.model_selection import train_test_split x_a_train,x_a_test,y_a_train,y_a_test = train_test_split(X,y,random_state = 33,test_size = 0.25) x_b_train,x_b_test,y_b_train,y_b_test = train_test_split(X_L1,y,random_state = 33,test_size = 0.25)### 效果比較 from sklearn.svm import SVC svc1 = SVC().fit(x_a_train,y_a_train) print(svc1.score(x_a_test,y_a_test))from sklearn.svm import SVC svc2 = SVC().fit(x_b_train,y_b_train) print(svc2.score(x_b_test,y_b_test))# 參考博客
http://www.cnblogs.com/stevenlk/p/6543646.html
轉載于:https://www.cnblogs.com/wanglei5205/p/8977986.html
與50位技術專家面對面20年技術見證,附贈技術全景圖總結
以上是生活随笔為你收集整理的【特征选择】嵌入式特征选择法的全部內容,希望文章能夠幫你解決所遇到的問題。
- 上一篇: 30分钟全面解析-SQL事务+隔离级别+
- 下一篇: 伸缩导航及页面伸缩