日韩av黄I国产麻豆传媒I国产91av视频在线观看I日韩一区二区三区在线看I美女国产在线I麻豆视频国产在线观看I成人黄色短片

歡迎訪問 生活随笔!

生活随笔

當前位置: 首頁 > 编程语言 > python >内容正文

python

python网格搜索核函数_(转载)Python机器学习笔记GridSearchCV(网格搜索)

發布時間:2025/3/12 python 40 豆豆
生活随笔 收集整理的這篇文章主要介紹了 python网格搜索核函数_(转载)Python机器学习笔记GridSearchCV(网格搜索) 小編覺得挺不錯的,現在分享給大家,幫大家做個參考.

轉載聲明

介紹

在機器學習模型中,需要人工選擇的參數稱為超參數。比如隨機森林中決策樹的個數,人工神經網絡模型中隱藏層層數和每層的節點個數,正則項中常數大小等等,他們都需要事先指定。超參數選擇不恰當,就會出現欠擬合或者過擬合的問題。而在選擇超參數的時候,有兩個途徑,一個是憑經驗微調,另一個就是選擇不同大小的參數,帶入模型中,挑選表現最好的參數。

微調的一種方法是手工調制超參數,直到找到一個好的超參數組合,這么做的話會非常冗長,你也可能沒有時間探索多種組合,所以可以使用Scikit-Learn的GridSearchCV來做這項搜索工作。下面讓我們一一探索。

為什么叫網格搜索(GridSearchCV)?

GridSearchCV的名字其實可以拆分為兩部分,GridSearch和CV,即網格搜索和交叉驗證。這兩個名字都非常好理解。網格搜索,搜索的是參數,即在指定的參數范圍內,按步長依次調整參數,利用調整的參數訓練學習器,從所有的參數中找到在驗證集上精度最高的參數,這其實是一個訓練和比較的過程。

GridSearchCV可以保證在指定的參數范圍內找到精度最高的參數,但是這也是網格搜索的缺陷所在,他要求遍歷所有可能參數的組合,在面對大數據集和多參數的情況下,非常耗時。

什么是Grid Search網格搜索?

Grid Search:一種調參手段;窮舉搜索:在所有候選的參數選擇中,通過循環遍歷,嘗試每一種可能性,表現最好的參數就是最終的結果。其原理就像是在數組里找到最大值。這種方法的主要缺點是比較耗時!

所以網格搜索適用于三四個(或者更少)的超參數(當超參數的數量增長時,網格搜索的計算復雜度會呈現指數增長,這時候則使用隨機搜索),用戶列出一個較小的超參數值域,這些超參數至于的笛卡爾積(排列組合)為一組組超參數。網格搜索算法使用每組超參數訓練模型并挑選驗證集誤差最小的超參數組合。

以隨機森林為例說明GridSearch網格搜索

下面代碼,我們要搜索兩種網格,一種是n_estimators,一種是max_features。GridSearch會挑選出最適合的超參數值。1

2

3

4

5

6

7

8

9

10

11from sklearn.model_selection import GridSearchCV

param_grid = [

{'n_estimators': [3, 10, 30], 'max_features': [2, 4, 6, 8]},

{'bootstrap': [False], 'n_estimators': [3, 10], 'max_features': [2, 3, 4]},

]

forest_reg = RandomForestRegressor()

grid_search = GridSearchCV(forest_reg, param_grid, cv=5,

scoring='neg_mean_squared_error')

grid_search.fit(housing_prepared, housing_labels)

sklearn 根據param_grid的值,首先會評估3×4=12種n_estimators和max_features的組合方式,接下來在會在bootstrap=False的情況下(默認該值為True),評估2×3=6種12種n_estimators和max_features的組合方式,所以最終會有12+6=18種不同的超參數組合方式,而每一種組合方式要在訓練集上訓練5次, 所以一共要訓練18×5=90 次,當訓練結束后,你可以通過best_params_獲得最好的組合方式。1grid_search.best_params_

輸出結果如下:1{‘max_features’: 8, ‘n_estimators’: 30}

得到最好的模型1grid_search.best_estimator_

輸出如下:1

2

3

4

5

6RandomForestRegressor(bootstrap=True, criterion=‘mse’, max_depth=None,

max_features=8, max_leaf_nodes=None, min_impurity_decrease=0.0,

min_impurity_split=None, min_samples_leaf=1,

min_samples_split=2, min_weight_fraction_leaf=0.0,

n_estimators=30, n_jobs=1, oob_score=False, random_state=None,

verbose=0, warm_start=False)

如果GridSearchCV初始化時,refit=True(默認的初始化值),在交叉驗證時,一旦發現最好的模型(estimator),將會在整個訓練集上重新訓練,這通常是一個好主意,因為使用更多的數據集會提升模型的性能。

以上面有兩個參數的模型為例,參數a有3中可能,參數b有4種可能,把所有可能性列出來,可以表示成一個3*4的表格,其中每個cell就是一個網格,循環過程就像是在每個網格里遍歷,搜索,所以叫grid search。

以Xgboost為例說明GridSearch網格搜索

下面以阿里IJCAI廣告推薦數據集與XgboostClassifier分類器為例,用代碼形式說明sklearn中GridSearchCV的使用方法。(此小例的代碼是參考這里:請點擊我)1

2

3

4

5

6

7

8

9

10

11

12

13

14

15

16

17

18

19

20

21

22

23

24

25

26

27

28

29

30

31

32

33

34

35

36

37

38

39

40

41import numpy as np

import pandas as pd

import xgboost as xgb

from sklearn.grid_search import GridSearchCV

#導入訓練數據

traindata = pd.read_csv("/traindata_4_3.txt",sep = ',')

traindata = traindata.set_index('instance_id')

trainlabel = traindata['is_trade']

del traindata['is_trade']

print(traindata.shape,trainlabel.shape)

#分類器使用 xgboost

clf1 = xgb.XGBClassifier()

#設定網格搜索的xgboost參數搜索范圍,值搜索XGBoost的主要6個參數

param_dist = {

'n_estimators':range(80,200,4),

'max_depth':range(2,15,1),

'learning_rate':np.linspace(0.01,2,20),

'subsample':np.linspace(0.7,0.9,20),

'colsample_bytree':np.linspace(0.5,0.98,10),

'min_child_weight':range(1,9,1)

}

#GridSearchCV參數說明,clf1設置訓練的學習器

#param_dist字典類型,放入參數搜索范圍

#scoring = 'neg_log_loss',精度評價方式設定為“neg_log_loss“

#n_iter=300,訓練300次,數值越大,獲得的參數精度越大,但是搜索時間越長

#n_jobs = -1,使用所有的CPU進行訓練,默認為1,使用1個CPU

grid = GridSearchCV(clf1,param_dist,cv = 3,scoring = 'neg_log_loss',n_iter=300,n_jobs = -1)

#在訓練集上訓練

grid.fit(traindata.values,np.ravel(trainlabel.values))

#返回最優的訓練器

best_estimator = grid.best_estimator_

print(best_estimator)

#輸出最優訓練器的精度

這里關于網格搜索的幾個參數在說明一下,評分參數“scoring”,需要根據實際的評價標準設定,阿里的IJCAI的標準時“neg_log_loss”,所以這里設定為“neg_log_loss”,sklearn中備選的評價標準如下:在一些情況下,sklearn中沒有現成的評價函數,sklearn是允許我們自定義的,但是需要注意格式。

接下來看一下我們定義的評價函數:1

2

3

4

5

6

7

8

9

10

11

12

13

14import numpy as np

from sklearn.metrics import make_scorer

def logloss(act, pred):

epsilon = 1e-15

pred = sp.maximum(epsilon, pred)

pred = sp.minimum(1-epsilon, pred)

ll = sum(act*sp.log(pred) + sp.subtract(1, act)*sp.log(sp.subtract(1, pred)))

ll = ll * -1.0/len(act)

return ll

#這里的greater_is_better參數決定了自定義的評價指標是越大越好還是越小越好

loss = make_scorer(logloss, greater_is_better=False)

score = make_scorer(logloss, greater_is_better=True)

定義好以后,再將其帶入GridSearchCV函數就好。

這里再貼一下常用的集成學習算法比較重要的需要調參的參數:

以SVR為例說明GridSearch網格搜索

以兩個參數的調優過程為例:1

2

3

4

5

6

7

8

9

10

11

12

13

14

15

16

17

18

19

20

21

22from sklearn.datasets import load_iris

from sklearn.svm import SVC

from sklearn.model_selection import train_test_split

iris_data = load_iris()

X_train,X_test,y_train,y_test = train_test_split(iris_data.data,iris_data.target,random_state=0)

# grid search start

best_score = 0

for gamma in [0.001,0.01,1,10,100]:

for c in [0.001,0.01,1,10,100]:

# 對于每種參數可能的組合,進行一次訓練

svm = SVC(gamma=gamma,C=c)

svm.fit(X_train,y_train)

score = svm.score(X_test,y_test)

# 找到表現最好的參數

if score > best_score:

best_score = score

best_parameters = {'gamma':gamma,"C":c}

print('Best socre:{:.2f}'.format(best_score))

print('Best parameters:{}'.format(best_parameters))

輸出結果:1

2Best socre:0.97

Best parameters:{'gamma': 0.001, 'C': 100}

2.4 上面調參存在的問題是什么呢?

原始數據集劃分成訓練集和測試集以后,其中測試集除了用作調整參數,也用來測量模型的好壞;這樣做導致最終的評分結果比實際效果好。(因為測試集在調參過程中,送到了模型里,而我們的目的是將訓練模型應用到unseen data上)。

2.5 解決方法是什么呢?

對訓練集再進行一次劃分,分為訓練集和驗證集,這樣劃分的結果就是:原始數據劃分為3份,分別為:訓練集,驗證集和測試集;其中訓練集用來模型訓練,驗證集用來調整參數,而測試集用來衡量模型表現好壞。

代碼:1

2

3

4

5

6

7

8

9

10

11

12

13

14

15

16

17

18

19

20

21

22

23

24

25

26

27

28

29

30

31

32

33from sklearn.datasets import load_iris

from sklearn.svm import SVC

from sklearn.model_selection import train_test_split

iris_data = load_iris()

# X_train,X_test,y_train,y_test = train_test_split(iris_data.data,iris_data.target,random_state=0)

X_trainval,X_test,y_trainval,y_test = train_test_split(iris_data.data,iris_data.target,random_state=0)

X_train ,X_val,y_train,y_val = train_test_split(X_trainval,y_trainval,random_state=1)

# grid search start

best_score = 0

for gamma in [0.001,0.01,1,10,100]:

for c in [0.001,0.01,1,10,100]:

# 對于每種參數可能的組合,進行一次訓練

svm = SVC(gamma=gamma,C=c)

svm.fit(X_train,y_train)

score = svm.score(X_val,y_val)

# 找到表現最好的參數

if score > best_score:

best_score = score

best_parameters = {'gamma':gamma,"C":c}

# 使用最佳參數,構建新的模型

svm = SVC(**best_parameters)

# 使用訓練集和驗證集進行訓練 more data always resultd in good performance

svm.fit(X_trainval,y_trainval)

# evalyation 模型評估

test_score = svm.score(X_test,y_test)

print('Best socre:{:.2f}'.format(best_score))

print('Best parameters:{}'.format(best_parameters))

print('Best score on test set:{:.2f}'.format(test_score))

結果:1

2

3Best socre:0.96

Best parameters:{'gamma': 0.001, 'C': 10}

Best score on test set:0.92

然而,這種簡潔的grid search方法,其最終的表現好壞與初始數據的劃分結果有很大的關系,為了處理這種情況,我們采用交叉驗證的方式來減少偶然性。

2.6,交叉驗證改進SVM代碼(Grid Search with Cross Validation)

代碼:1

2

3

4

5

6

7

8

9

10

11

12

13

14

15

16

17

18

19

20

21

22

23

24

25

26

27

28

29

30

31

32

33

34from sklearn.datasets import load_iris

from sklearn.svm import SVC

from sklearn.model_selection import train_test_split,cross_val_score

iris_data = load_iris()

# X_train,X_test,y_train,y_test = train_test_split(iris_data.data,iris_data.target,random_state=0)

X_trainval,X_test,y_trainval,y_test = train_test_split(iris_data.data,iris_data.target,random_state=0)

X_train ,X_val,y_train,y_val = train_test_split(X_trainval,y_trainval,random_state=1)

# grid search start

best_score = 0

for gamma in [0.001,0.01,1,10,100]:

for c in [0.001,0.01,1,10,100]:

# 對于每種參數可能的組合,進行一次訓練

svm = SVC(gamma=gamma,C=c)

# 5 折交叉驗證

scores = cross_val_score(svm,X_trainval,y_trainval,cv=5)

score = scores.mean()

# 找到表現最好的參數

if score > best_score:

best_score = score

best_parameters = {'gamma':gamma,"C":c}

# 使用最佳參數,構建新的模型

svm = SVC(**best_parameters)

# 使用訓練集和驗證集進行訓練 more data always resultd in good performance

svm.fit(X_trainval,y_trainval)

# evalyation 模型評估

test_score = svm.score(X_test,y_test)

print('Best socre:{:.2f}'.format(best_score))

print('Best parameters:{}'.format(best_parameters))

print('Best score on test set:{:.2f}'.format(test_score))

結果:1

2

3Best socre:0.97

Best parameters:{'gamma': 0.01, 'C': 100}

Best score on test set:0.97

交叉驗證經常與網絡搜索進行結合,作為參數評價的一種方法,這種方法叫做grid search with cross validation。

sklearn因此設計了一個這樣的類GridSearchCV,這個類實現fit,predict,score等方法。被當做一個estimator,使用fit方法,該過程中:

(1) 搜索到最佳參數

(2)實例化了一個最佳參數的estimator

3,RandomizedSearchCV——(隨機搜索)

文獻地址可以參考:請點擊我

所謂的模型配置,一般統稱為模型的超參數(Hyperparameters),比如KNN算法中的K值,SVM中不同的核函數(Kernal)等。多數情況下,超參數等選擇是無限的。在有限的時間內,除了可以驗證人工預設幾種超參數組合以外,也可以通過啟發式的搜索方法對超參數組合進行調優。稱這種啟發式的超參數搜索方法為網格搜索。

我們在搜索超參數的時候,如果超參數個數較少(三四個或者更少),那么我們可以采用網格搜索,一種窮盡式的搜索方法。但是當超參數個數比較多的時候,我們仍然采用網格搜索,那么搜索所需時間將會指數級上升。

所以有人就提出了隨機搜索的方法,隨機在超參數空間中搜索幾十幾百個點,其中就有可能有比較小的值。這種做法比上面稀疏化網格的做法快,而且實驗證明,隨機搜索法結果比稀疏網格法稍好。

RandomizedSearchCV使用方法和類GridSearchCV 很相似,但他不是嘗試所有可能的組合,而是通過選擇每一個超參數的一個隨機值的特定數量的隨機組合,這個方法有兩個優點:

如果你讓隨機搜索運行, 比如1000次,它會探索每個超參數的1000個不同的值(而不是像網格搜索那樣,只搜索每個超參數的幾個值)

你可以方便的通過設定搜索次數,控制超參數搜索的計算量。

RandomizedSearchCV的使用方法其實是和GridSearchCV一致的,但它以隨機在參數空間中采樣的方式代替了GridSearchCV對于參數的網格搜索,在對于有連續變量的參數時,RandomizedSearchCV會將其當做一個分布進行采樣進行這是網格搜索做不到的,它的搜索能力取決于設定的n_iter參數,同樣的給出代碼。

代碼如下:1

2

3

4

5

6

7

8

9

10

11

12

13

14

15

16

17

18

19

20

21

22

23

24

25

26

27

28

29

30

31

32

33

34

35

36

37

38

39

40

41import numpy as np

import pandas as pd

import xgboost as xgb

from sklearn.grid_search import RandomizedSearchCV

#導入訓練數據

traindata = pd.read_csv("/traindata.txt",sep = ',')

traindata = traindata.set_index('instance_id')

trainlabel = traindata['is_trade']

del traindata['is_trade']

print(traindata.shape,trainlabel.shape)

#分類器使用 xgboost

clf1 = xgb.XGBClassifier()

#設定搜索的xgboost參數搜索范圍,值搜索XGBoost的主要6個參數

param_dist = {

'n_estimators':range(80,200,4),

'max_depth':range(2,15,1),

'learning_rate':np.linspace(0.01,2,20),

'subsample':np.linspace(0.7,0.9,20),

'colsample_bytree':np.linspace(0.5,0.98,10),

'min_child_weight':range(1,9,1)

}

#RandomizedSearchCV參數說明,clf1設置訓練的學習器

#param_dist字典類型,放入參數搜索范圍

#scoring = 'neg_log_loss',精度評價方式設定為“neg_log_loss“

#n_iter=300,訓練300次,數值越大,獲得的參數精度越大,但是搜索時間越長

#n_jobs = -1,使用所有的CPU進行訓練,默認為1,使用1個CPU

grid = RandomizedSearchCV(clf1,param_dist,cv = 3,scoring = 'neg_log_loss',n_iter=300,n_jobs = -1)

#在訓練集上訓練

grid.fit(traindata.values,np.ravel(trainlabel.values))

#返回最優的訓練器

best_estimator = grid.best_estimator_

print(best_estimator)

#輸出最優訓練器的精度

print(grid.best_score_)

建議使用隨機搜索。

超參數搜索——網格搜索&并行搜索代碼1

2

3

4

5

6

7

8

9

10

11

12

13

14

15

16

17

18

19

20

21

22

23

24

25

26

27

28

29

30

31

32

33

34

35

36

37

38

39

40

41

42

43

44

45

46

47

48

49#-*- coding:utf-8 -*-

#1.使用單線程對文本分類的樸素貝葉斯模型的超參數組合執行網格搜索

from sklearn.datasets import fetch_20newsgroups

import numpy as np

news = fetch_20newsgroups(subset='all')

from sklearn.cross_validation import train_test_split

#取前3000條新聞文本進行數據分割

X_train,X_test,y_train,y_test=train_test_split(news.data[:3000],

news.target[:3000],test_size=0.25,random_state=33)

from sklearn.svm import SVC

from sklearn.feature_extraction.text import TfidfVectorizer

#*************導入pipeline*************

from sklearn.pipeline import Pipeline

#使用Pipeline簡化系統搭建流程,sklean提供的pipeline來將多個學習器組成流水線,通常流水線的形式為:

#將數據標準化的學習器---特征提取的學習器---執行預測的學習器

#將文本特征與分類器模型串聯起來,[(),()]里有兩個參數

#參數1:執行 vect = TfidfVectorizer(stop_words='english',analyzer='word')操作

#參數2:執行 svc = SVC()操作

clf = Pipeline([('vect',TfidfVectorizer(stop_words='english',analyzer='word')),('svc',SVC())])

#這里需要試驗的2個超參數svc_gamma和svc_C的元素個數分別為4、3,這樣我們一共有12種超參數對集合

#numpy.linspace用于創建等差數列,numpy.logspace用于創建等比數列

#logspace中,開始點和結束點是10的冪

#例如logspace(-2,1,4)表示起始數字為10^-2,結尾數字為10^1即10,元素個數為4的等比數列

#parameters變量里面的key都有一個前綴,這個前綴其實就是在Pipeline中定義的操作名。二者相結合,使我們的代碼變得十分簡潔。

#還有注意的是,這里對參數名是下劃線 __

parameters = {'svc__gamma':np.logspace(-2,1,4),'svc__C':np.logspace(-1,1,3)}

#從sklearn.grid_search中導入網格搜索模塊GridSearchCV

from sklearn.grid_search import GridSearchCV

#GridSearchCV參數解釋:

#1.estimator : estimator(評估) object.

#2.param_grid : dict or list of dictionaries

#3.verbose:Controls the verbosity(冗余度): the higher, the more messages.

#4.refit:default=True, Refit(再次擬合)the best estimator with the entire dataset

#5.cv : int, cross-validation generator 此處表示3折交叉驗證

gs = GridSearchCV(clf,parameters,verbose=2,refit=True,cv=3)

#執行單線程網格搜索

gs.fit(X_train,y_train)

print gs.best_params_,gs.best_score_

#最后輸出最佳模型在測試集上的準確性

print 'the accuracy of best model in test set is',gs.score(X_test,y_test)

#小結:

#1.由輸出結果可知,使用單線程的網格搜索技術 對樸素貝葉斯模型在文本分類任務中的超參數組合進行調優,

共有12組超參數組合*3折交叉驗證 =36項獨立運行的計算任務

#2.在本機上,該過程一共運行了2.9min,尋找到最佳的超參數組合在測試集上達到的分類準確性為82.27%

#2.使用多線程對文本分類的樸素貝葉斯模型的超參數組合執行網格搜索1

2

3

4

5

6

7

8

9

10

11#n_jobs=-1,表示使用該計算機的全部cpu

gs = GridSearchCV(clf,parameters,verbose=2,refit=True,cv=3,n_jobs=-1)

gs.fit(X_train,y_train)

print gs.best_params_,gs.best_score_

#輸出最佳模型在測試集上的準確性

print 'the accuracy of best model in test set is',gs.score(X_test,y_test)

#小結:

#總任務相同的情況下,使用并行搜索技術進行計算的話,執行時間只花費了1.1min;

#而且最終所得的的best_params_和score沒有發生變化,說明并行搜索可以在不影響準確性的前提下,

#有效的利用計算機的CPU資源,大大節省了最佳超參數的搜索時間。

4, 超參數估計的隨機搜索和網格搜索的比較

使用的數據集是小數據集 手寫數字數據集 load_digits() 分類 數據規模 5620*64

(sklearn中的小數據可以直接使用,大數據集在第一次使用的時候會自動下載)

比較隨機森林超參數優化的隨機搜索和網格搜索。所有影響學習的參數都是同時搜索的(除了估計值的數量,它會造成時間/質量的權衡)。

隨機搜索和網格搜索探索的是完全相同的參數空間。參數設置的結果非常相似,而隨機搜索的運行時間要低的多。

隨機搜索的性能稍差,不過這很可能是噪聲效應,不會延續到外置測試集

注意:在實踐中,人們不會使用網格搜索同時搜索這么多不同的參數,而是只選擇那些被認為最重要的參數。

代碼如下:1

2

3

4

5

6

7

8

9

10

11

12

13

14

15

16

17

18

19

20

21

22

23

24

25

26

27

28

29

30

31

32

33

34

35

36

37

38

39

40

41

42

43

44

45

46

47

48

49

50

51

52

53

54

55

56

57

58

59

60

61

62

63

64

65

66

67

68

69

70

71

72

73

74

75

76

77

78

79

80

81

82

83

84

85

86

87

88

89

90

91

92

93#_*_coding:utf-8_*_

# 輸出文件開頭注釋的內容 __doc__的作用

'''

Python有個特性叫做文檔字符串,即DocString ,這個特性可以讓你的程序文檔更加清晰易懂

'''

print(__doc__)

import numpy as np

from time import time

from scipy.stats import randint as sp_randint

from sklearn.model_selection import GridSearchCV

from sklearn.model_selection import RandomizedSearchCV

from sklearn.datasets import load_digits

from sklearn.ensemble import RandomForestClassifier

# get some data

digits = load_digits()

X, y = digits.data , digits.target

# build a classifier

clf = RandomForestClassifier(n_estimators=20)

# utility function to report best scores

def report(results, n_top= 3):

for i in range(1, n_top + 1):

candidates = np.flatnonzero(results['rank_test_score'] == i)

for candidate in candidates:

print("Model with rank:{0}".format(i))

print("Mean validation score : {0:.3f} (std: {1:.3f})".

format(results['mean_test_score'][candidate],

results['std_test_score'][candidate]))

print("Parameters: {0}".format(results['params'][candidate]))

print("")

# 指定取樣的參數和分布 specify parameters and distributions to sample from

param_dist = {"max_depth":[3,None],

"max_features":sp_randint(1,11),

"min_samples_split":sp_randint(2,11),

"bootstrap":[True, False],

"criterion":["gini","entropy"]

}

# run randomized search

n_iter_search = 20

random_search = RandomizedSearchCV(clf,param_distributions=param_dist,

n_iter=n_iter_search,cv =5)

start = time()

random_search.fit(X, y)

print("RandomizedSearchCV took %.2f seconds for %d candidates"

" parameter settings." % ((time() - start), n_iter_search))

report(random_search.cv_results_)

# use a full grid over all parameters

param_grid = {"max_depth":[3,None],

"max_features":[1, 3, 10],

"min_samples_split":[2, 3, 10],

"bootstrap":[True, False],

"criterion":["gini","entropy"]

}

# run grid search

grid_search = GridSearchCV(clf, param_grid=param_grid, cv =5)

start = time()

grid_search.fit(X , y)

print("GridSearchCV took %.2f seconds for %d candidate parameter settings."

% (time() - start, len(grid_search.cv_results_['params'])))

report(grid_search.cv_results_)

結果如下:

RandomizedSearchCV took 6.20 seconds for 20 candidates parameter settings.

Model with rank:1

Mean validation score : 0.930 (std: 0.031)

Parameters: {'bootstrap': False, 'criterion': 'entropy', 'max_depth': None, 'max_features': 6, 'min_samples_split': 5}

Model with rank:2

Mean validation score : 0.929 (std: 0.024)

Parameters: {'bootstrap': False, 'criterion': 'entropy', 'max_depth': None, 'max_features': 6, 'min_samples_split': 9}

Model with rank:3

Mean validation score : 0.924 (std: 0.020)

Parameters: {'bootstrap': False, 'criterion': 'gini', 'max_depth': None, 'max_features': 3, 'min_samples_split': 6}

Model with rank:1

Mean validation score : 0.932 (std: 0.023)

Parameters: {'bootstrap': False, 'criterion': 'gini', 'max_depth': None, 'max_features': 10, 'min_samples_split': 3}

Model with rank:2

Mean validation score : 0.931 (std: 0.014)

Parameters: {'bootstrap': False, 'criterion': 'gini', 'max_depth': None, 'max_features': 3, 'min_samples_split': 3}

Model with rank:3

Mean validation score : 0.929 (std: 0.021)

Parameters: {'bootstrap': False, 'criterion': 'entropy', 'max_depth': None, 'max_features': 3, 'min_samples_split': 2}

scikit-learn GridSearch庫概述

sklearn的Grid Search官網地址:請點擊我

GridSearchCV簡介

GridSearchCV,它存在的意義就是自動調參,只要把參數輸進去,就能給出最優化結果和參數。但是這個方法適合于小數據集,一旦數據的量級上去了,很難得到結果。這個時候就需要動腦筋了。數據量比較大的時候可以使用一個快速調優的方法——坐標下降。它其實是一種貪心算法:拿當前對模型影響最大的參數調參,直到最優化;再拿下一個影響最大的參數調優,如此下去,直到所有的參數調整完畢。這個方法的缺點就是可能會跳到局部最優而不是全局最優,但是省時間省力,巨大的優勢面前,還是試一試,后續可以再拿bagging再優化。

通常算法不夠好,需要調試參數時必不可少。比如SVM的懲罰因子C,核函數kernel,gamma參數等,對于不同的數據使用不同的參數,結果效果可能差1~5個點,sklearn為我們專門調試參數的函數grid_search。

GridSearchCV參數說明

參數如下:1

2

3class sklearn.model_selection.GridSearchCV(estimator, param_grid, scoring=None,

fit_params=None, n_jobs=None, iid=’warn’, refit=True, cv=’warn’, verbose=0,

pre_dispatch=‘2*n_jobs’, error_score=’raise-deprecating’, return_train_score=’warn’)

說明如下:

1)estimator:選擇使用的分類器,并且傳入除需要確定最佳的參數之外的其他參數。每一個分類器都需要一個scoring參數,或者score方法:如estimator = RandomForestClassifier(min_sample_split=100,min_samples_leaf = 20,max_depth = 8,max_features = ‘sqrt’ , random_state =10),

2)param_grid:需要最優化的參數的取值,值為字典或者列表,例如:param_grid = param_test1,param_test1 = {‘n_estimators’ : range(10,71,10)}

3)scoring = None :模型評價標準,默認為None,這時需要使用score函數;或者如scoring = ‘roc_auc’,根據所選模型不同,評價準則不同,字符串(函數名),或是可調用對象,需要其函數簽名,形如:scorer(estimator,X,y);如果是None,則使用estimator的誤差估計函數。

4)fit_para,s = None

5)n_jobs = 1 : n_jobs:并行數,int:個數,-1:跟CPU核數一致,1:默認值

6)iid = True:iid:默認為True,為True時,默認為各個樣本fold概率分布一致,誤差估計為所有樣本之和,而非各個fold的平均。

7)refit = True :默認為True,程序將會以交叉驗證訓練集得到的最佳參數,重新對所有可能的訓練集與開發集進行,作為最終用于性能評估的最佳模型參數。即在搜索參數結束后,用最佳參數結果再次fit一遍全部數據集。

8)cv = None:交叉驗證參數,默認None,使用三折交叉驗證。指定fold數量,默認為3,也可以是yield訓練/測試數據的生成器。

9)verbose = 0 ,scoring = None  verbose:日志冗長度,int:冗長度,0:不輸出訓練過程,1:偶爾輸出,>1:對每個子模型都輸出。

10)pre_dispatch = ‘2*n_jobs’ :指定總共發的并行任務數,當n_jobs大于1時候,數據將在每個運行點進行復制,這可能導致OOM,而設置pre_dispatch參數,則可以預先劃分總共的job數量,使數據最多被復制pre_dispatch次。

##進行預測的常用方法和屬性

grid.fit() :運行網格搜索

grid_scores_ :給出不同參數情況下的評價結果

best_params_ :描述了已取得最佳結果的參數的組合

best_score_ :提供優化過程期間觀察到的最好的評分

cv_results_ :具體用法模型不同參數下交叉驗證的結果

4,GridSearchCV屬性說明

(1) cv_results_ : dict of numpy (masked) ndarrays

具有鍵作為列標題和值作為列的dict,可以導入到DataFrame中。注意,“params”鍵用于存儲所有參數候選項的參數設置列表。

(2) best_estimator_ : estimator

通過搜索選擇的估計器,即在左側數據上給出最高分數(或指定的最小損失)的估計器。如果refit = False,則不可用。

(3)best_score_ :float best_estimator的分數

(4)best_parmas_ : dict 在保存數據上給出最佳結果的參數設置

(5) best_index_ : int 對應于最佳候選參數設置的索引(cv_results_數組)

search.cv_results _ [‘params’] [search.best_index_]中的dict給出了最佳模型的參數設置,給出了最高的平均分數(search.best_score_)。

(6)scorer_ : function

Scorer function used on the held out data to choose the best parameters for the model.

(7)n_splits_ : int

The number of cross-validation splits (folds/iterations).

利用決策樹預測乳腺癌的例子(網格搜索算法優化)

網格搜索算法與K折交叉驗證理論知識

網格搜索算法是一種通過遍歷給定的參數組合來優化模型表現的方法。

以決策樹為例,當我們確定了要使用決策樹算法的時候,為了能夠更好地擬合和預測,我們需要調整它的參數。在決策樹算法中,我們通常選擇的參數是決策樹的最大深度。

于是下面我們會給出一系列的最大深度的值,比如{‘max_depth’:[1,2,3,4,5] },我們就會盡可能包含最優最大深度。

不過我們如何知道哪個最大深度的模型是最好的呢?我們需要一種可靠的評分方法,對每個最大深度的決策樹模型都進行評價,這其中非常經典的一種方法就是交叉驗證,下面我們就以K折交叉驗證為例,詳細介紹一下其算法過程。

首先我們先看一下數據集時如何分割的,我們拿到的原始數據集首先會按照一定的比例劃分出訓練集和測試集。比如下圖,以8:2分割的數據集:

訓練集是用來訓練我們的模型,它的作用就像我們平時做的練習題;測試集用來評估我們訓練好的模型表現如何,它不能被提前被模型看到。

因此,在K折交叉驗證中,我們用到的數據是訓練集中的所有數據,我們將訓練集的所有數據平均劃分出K份(通常選擇K=10),取第K份作為驗證集,它的作用就像我們用來估計高考分數的模擬題,余下的K-1份作為交叉驗證的訓練集。

對于我們最開始選擇的決策樹的5個最大深度,以max_depth=1為例,我們先用第2-10份數據作為訓練集訓練模型,用第一份數據作為驗證集對這次訓練的模型進行評分,得到第一個分數;然后重新構建一個max_depth = 1的決策樹,用第1和3-10份數據作為訓練集訓練模型,用第2份數據作為驗證集對這次訓練的模型進行評分,得到第二個分數…..以此類推,最后構建一個max_depth = 1的決策樹用第1-9份數據作為訓練集訓練模型,用第10份數據作為驗證集對這次訓練的模型進行評分,得到10個驗證分數,然后計算著10個驗證分數的平均分數,就是max_depth = 1的決策樹模型的最終驗證分數。

對于max_depth = 2,3,4,5時,分別進行和max_depth =1 相同的交叉驗證過程,得到他們的最終驗證分數,然后我們就可以對這5個最大深度的決策樹的最終驗證分數進行比較,分數最高的那個就是最優最大深度,我們利用最優參數在全部訓練集上訓練一個新的模型,整個模型就是最優模型。

簡單的利用決策樹預測乳腺癌的例子

代碼:1

2

3

4

5

6

7

8

9

10

11

12

13

14

15

16

17

18

19

20

21

22

23

24

25

26

27

28

29

30

31

32

33

34

35

36

37

38

39

40

41

42

43

44

45

46

47from sklearn.model_selection import GridSearchCV,KFold,train_test_split

from sklearn.metrics import make_scorer , accuracy_score

from sklearn.tree import DecisionTreeClassifier

from sklearn.datasets import load_breast_cancer

import warnings

from sklearn.neighbors import KNeighborsClassifier as KNN

warnings.filterwarnings('ignore')

# load data

data = load_breast_cancer()

print(data.data.shape)

print(data.target.shape)

# (569, 30)

# (569,)

X,y = data['data'] , data['target']

X_train,X_test,y_train,y_test = train_test_split(

X,y,train_size=0.8 , random_state=0

)

regressor = DecisionTreeClassifier(random_state=0)

parameters = {'max_depth':range(1,6)}

scorin_fnc = make_scorer(accuracy_score)

kflod = KFold(n_splits=10)

grid = GridSearchCV(regressor,parameters,scorin_fnc,cv=kflod)

grid = grid.fit(X_train,y_train)

reg = grid.best_estimator_

print('best score:%f'%grid.best_score_)

print('best parameters:')

for key in parameters.keys():

print('%s:%d'%(key,reg.get_params()[key]))

print('test score : %f'%reg.score(X_test,y_test))

# import pandas as pd

# pd.DataFrame(grid.cv_results_).T

# 引入KNN訓練方法

knn = KNN()

# 進行填充測試數據進行訓練

knn.fit(X_train,y_train)

params = knn.get_params()

score = knn.score(X_test,y_test)

print("KNN 預測得分為:%s"%score)

結果:1

2

3

4

5

6

7(569, 30)

(569,)

best score:0.938462

best parameters:

max_depth:4

test score : 0.956140

KNN 預測得分為:0.9385964912280702

問題一:AttributeError: ‘GridSearchCV’ object has no attribute ‘grid_scores_’

問題描述:

Python運行代碼的時候,到gsearch1.grid_scores_ 時報錯:1AttributeError: 'GridSearchCV' object has no attribute 'grid_scores_'

原因:

之所以出現以上問題,原因在于grid_scores_在sklearn0.20版本中已被刪除,取而代之的是cv_results_。

解決方法:

將下面代碼:1a,b,c = gsearch1.grid_scores_, gsearch1.best_params_, gsearch1.best_score_

換成:1a,b,c = gsearch1.cv_results_, gsearch1.best_params_, gsearch1.best_score_

問題二:ModuleNotFoundError: No module named ‘sklearn.grid_search’

問題描述:

Python運行代碼時候,到from sklearn.grid_search import GridSearchCV時報錯:1ModuleNotFoundError: No module named 'sklearn.grid_search'

原因:

sklearn.grid_search模塊在0.18版本中被棄用,它所支持的類轉移到model_selection 模板中。還要注意,新的CV迭代器的接口與這個模塊的接口不同,sklearn.grid_search在0.20中被刪除。

解決方法:

將下面代碼1from sklearn.grid_search import GridSearchCV

修改成:1from sklearn.model_selection import GridSearchCV

致謝

總結

以上是生活随笔為你收集整理的python网格搜索核函数_(转载)Python机器学习笔记GridSearchCV(网格搜索)的全部內容,希望文章能夠幫你解決所遇到的問題。

如果覺得生活随笔網站內容還不錯,歡迎將生活随笔推薦給好友。

在线成人免费av | 少妇bbbb揉bbbb日本 | 国产无限资源在线观看 | 日本在线视频网址 | 色婷婷伊人 | 成人av在线直播 | 亚洲欧洲成人精品av97 | 日韩欧美在线视频一区二区三区 | 成年人国产视频 | 人人网av| 91看片黄色 | 777久久久| 国内精品久久久精品电影院 | 制服丝袜欧美 | 午夜三级理论 | 久久久久日本精品一区二区三区 | 在线不卡a | a√天堂中文在线 | 日韩免费b | 国产成人精品亚洲日本在线观看 | www日韩在线观看 | 精品国产一区二区三区噜噜噜 | 精品a级片 | 久久久久久久精 | 丁香激情综合久久伊人久久 | 亚洲国产精品999 | 91香蕉视频在线 | 欧美在线free| av免费片| 不卡国产在线 | 欧美日本不卡视频 | 国产精品亚 | 91av电影| 3d黄动漫免费看 | 欧美综合国产 | 日本精品在线视频 | 欧美日韩精品在线播放 | 亚洲天天在线 | 最新91在线视频 | 久久精品99国产精品酒店日本 | 国产精品视频 | 亚洲片在线 | 久草综合在线观看 | 成人av免费在线观看 | 97成人在线免费视频 | 国产精品久久久久一区二区三区共 | 日韩三级.com| 国产一级做a爱片久久毛片a | 日韩一区二区三免费高清在线观看 | 日韩三级久久 | 中文字幕视频一区 | 精品国产乱子伦一区二区 | 天堂久色 | 日韩 国产| 国产成人高清 | 久久在草 | 成人三级视频 | 成人午夜精品久久久久久久3d | 在线观看免费成人av | 青青河边草免费观看完整版高清 | 麻豆视频免费在线 | 99国产在线 | 亚洲情婷婷 | 性日韩欧美在线视频 | 国产精品成人久久久久 | 人人爱天天操 | 手机av网站 | 国产精品99久久免费观看 | 亚洲欧洲xxxx | 中文字幕在线成人 | 349k.cc看片app| 婷婷视频导航 | 91爱爱视频 | 91av九色| 天天干夜夜想 | av色综合网 | 天天操 夜夜操 | 久久精品99国产 | 婷婷五月情 | 91福利社在线观看 | 天堂网中文在线 | 久青草视频在线观看 | 午夜电影av | 99久热在线精品视频 | 亚洲国产成人高清精品 | 成人av视屏 | 91九色蝌蚪国产 | 96看片 | 国产一二区在线观看 | 国产成人精品日本亚洲999 | 国产视频久久久 | 一区二区丝袜 | 亚洲成人精品久久久 | 玖玖视频免费在线 | 91精品久久香蕉国产线看观看 | 久久久久激情视频 | 91在线精品一区二区 | 天天插天天射 | 欧美在线视频第一页 | 96av在线| 深夜免费福利 | 在线视频久 | 91精品国自产在线观看 | 黄色片网站av | 婷婷色婷婷| 999久久久久久久久6666 | 中文字幕国产视频 | 99久久毛片| 久久优 | 欧美精品v国产精品 | 国产一区二区电影在线观看 | 中文在线字幕免 | 超碰在线97观看 | 色婷婷免费| 成人在线小视频 | 国产 色 | 黄色av影院| 69视频国产 | 国产精品久久一区二区三区, | 一区二区久久久久 | 人人草人 | 在线香蕉视频 | 激情在线五月天 | www.夜夜夜| 日本精品视频在线观看 | 日本久久久影视 | 激情婷婷色 | 婷婷成人亚洲综合国产xv88 | 色婷久久 | 久久久久久久久久久黄色 | 日韩大片在线免费观看 | 亚洲高清视频在线播放 | 亚洲精品黄色在线观看 | 国产精品三级视频 | 麻豆视频在线观看免费 | 国内精品亚洲 | 在线免费中文字幕 | 国产男女无遮挡猛进猛出在线观看 | 国产亲近乱来精品 | 一区二区三区福利 | 91精品国产自产老师啪 | 亚洲国产日本 | 亚洲精品国产区 | 激情电影影院 | 亚洲综合色婷婷 | 黄色av一区二区三区 | wwwav视频| 久久精品中文字幕一区二区三区 | 国产精品一级视频 | 国产人成免费视频 | 国产精品专区h在线观看 | 在线观看国产亚洲 | 国产成人333kkk| 国产日女人 | 91香蕉视频在线下载 | 丁香六月婷婷开心婷婷网 | 黄色a视频免费 | 国产一区免费 | 在线观av| 中文字幕一二 | 激情丁香综合五月 | 亚洲天天摸日日摸天天欢 | 亚洲 综合 精品 | 成 人 黄 色 片 在线播放 | 国产精品婷婷午夜在线观看 | 国产私拍在线 | 日韩成人精品一区二区三区 | 在线观看国产日韩欧美 | 色播六月天 | 欧美一级电影在线观看 | 蜜桃av人人夜夜澡人人爽 | 五月天色丁香 | 在线观看完整版免费 | 狠狠色丁香婷综合久久 | 亚洲婷婷在线 | 亚洲国产精品视频 | 免费在线精品视频 | 国产片免费在线观看视频 | 午夜国产一区 | 婷婷久草 | 久久久亚洲麻豆日韩精品一区三区 | 久久久久久久免费看 | 中文字幕欧美日韩va免费视频 | 在线观看片 | 日本黄区免费视频观看 | 国产中文字幕在线 | 91 在线视频播放 | 亚洲综合色婷婷 | ,午夜性刺激免费看视频 | 国色天香av | 久久99国产综合精品免费 | 成人av免费在线看 | 91免费试看 | 国产精华国产精品 | 干狠狠| 亚洲人在线7777777精品 | 中文久久精品 | 日韩性xxxx| 色偷偷男人的天堂av | 午夜黄色影院 | 国产精品成人国产乱 | www免费看片com | 欧美精品三级在线观看 | 精品日韩在线 | 玖玖精品视频 | 69av国产 | www成人av | 天天操夜夜操天天射 | 综合网婷婷| 久草视频在线观 | 91精品国产综合久久福利不卡 | 在线观看亚洲电影 | 国产精品美女久久久久久网站 | 精品国产1区 | 国产精品黑丝在线观看 | 激情综合网五月激情 | 亚洲黄色在线观看 | 黄色亚洲精品 | 又黄又爽的视频在线观看网站 | 在线观看一区二区精品 | 久久99网站 | 欧美日韩一区二区在线 | 免费av片在线| 日日夜夜天天 | 日韩精品视频一二三 | 丝袜一区在线 | 亚洲六月丁香色婷婷综合久久 | 福利视频第一页 | 97色免费视频 | 69国产精品成人在线播放 | 黄色网址国产 | 成人免费观看完整版电影 | 黄色av影院 | 91日韩精品一区 | 国产黄色大全 | 亚洲高清免费在线 | 婷婷色视频| 高清不卡一区二区三区 | 亚洲永久精品国产 | 久久婷婷一区 | av电影中文字幕在线观看 | 久久人人爽人人爽人人片 | 日本中文字幕视频 | 天天操天天干天天爱 | 免费午夜视频在线观看 | 中文字幕精品一区二区三区电影 | 久久久久久综合 | 久久久久久久久久福利 | 国产爽视频 | 三上悠亚在线免费 | 中文字幕国产视频 | 亚洲精品国偷拍自产在线观看蜜桃 | 国产精品中文字幕av | 欧美激情第八页 | 欧美日本不卡视频 | 国产精品乱看 | 超级碰视频 | 日韩欧美在线一区二区 | 免费三级av | 永久免费精品视频网站 | 久草免费福利在线观看 | 欧美精品资源 | 精品综合久久久 | av电影免费看 | 亚洲欧美日韩国产一区二区三区 | 欧美一级电影免费观看 | 久草在线电影网 | 国产精品九九九九九九 | 日韩激情视频在线 | 国产又粗又硬又长又爽的视频 | 国产亚洲精品久久久久久大师 | 午夜影视一区 | 色综合色综合久久综合频道88 | 久久久久 | 亚洲最大av在线播放 | av福利在线 | 狠狠色丁香九九婷婷综合五月 | 五月开心六月婷婷 | 天堂av免费在线 | 国产精品欧美久久久久天天影视 | 欧美日韩精品在线观看 | 麻豆91网站 | 国产精品一区二区久久国产 | 在线观看中文字幕av | 91热| 91成人精品一区在线播放69 | 日韩国产精品一区 | 久久色视频 | 黄色资源在线观看 | 亚洲一区二区视频在线播放 | 中文字幕在线观看国产 | 精品国产aⅴ麻豆 | 亚洲综合色站 | 欧美日韩中文字幕视频 | 99草视频| 97精品国产97久久久久久久久久久久 | 国产色综合| 深爱激情综合 | 久久爱资源网 | 久久久国产精品一区二区三区 | 久久久免费精品 | 国产精品欧美日韩 | 日韩欧美一区二区在线播放 | 日韩久久久久久久久 | 国产成人精品一区二三区 | 国产区av在线 | 999在线观看视频 | 99国产精品视频免费观看一公开 | 一区二区三区四区免费视频 | 精品久久网 | 91亚洲在线 | 国产精品久久久久久欧美 | 91精品国产一区二区三区 | 97成人资源站 | 免费网站观看www在线观看 | 中文字幕免费国产精品 | 国产专区日韩专区 | 久久久国产99久久国产一 | 国产一区二区在线观看免费 | 久久综合色播五月 | www.色五月 | 成人免费网站视频 | 91成人精品视频 | 97精品免费视频 | 久久久久亚洲最大xxxx | 日韩av快播电影网 | 一区二区三区在线电影 | 午夜久久电影网 | 国产96视频 | 日本成人中文字幕在线观看 | 91热这里只有精品 | 在线观看国产日韩 | 精品网站999www | 91精品一区二区三区蜜桃 | 波多野结衣最新 | 国产黄色片免费 | 9在线观看免费高清完整版在线观看明 | 日日夜夜艹 | 精品久久99| 久久艹久久 | 天天综合色| 91麻豆精品国产91久久久久久久久 | 欧美性色综合网 | 国内久久久 | 夜夜夜夜猛噜噜噜噜噜初音未来 | 久久精品aaa| 亚洲精品毛片一级91精品 | 亚洲女人天堂成人av在线 | 色5月婷婷| 久久久网址 | 久久综合欧美 | 久久久精品久久 | 蜜臀av性久久久久av蜜臀妖精 | 亚洲黄色区 | 91精品国产91久久久久福利 | 91c网站色版视频 | 看污网站| 久久国产高清视频 | 狠狠色狠狠色综合日日小说 | 亚洲高清av在线 | 人人干人人做 | 久久99精品久久久久婷婷 | av成人免费在线 | 国产手机视频精品 | av网站地址 | 国产亚洲精品久久久久久大师 | 久久电影网站中文字幕 | 天天激情综合网 | 91麻豆精品国产午夜天堂 | 天天草天天爽 | 久久激情网站 | 日日激情 | 曰韩在线| 国产欧美在线一区 | 亚洲精品免费观看 | 欧美精品视 | 亚洲高清在线视频 | 狠狠色综合网站久久久久久久 | 午夜精品一区二区国产 | 国产亚洲午夜高清国产拍精品 | 2019精品手机国产品在线 | 国产成人av电影在线观看 | 日韩,精品电影 | 婷婷亚洲最大 | 人人插人人插 | 天堂va欧美va亚洲va老司机 | 69中文字幕 | 色综合欧洲 | 精品视频在线免费 | www.69xx | 欧美a视频在线观看 | 日韩免费在线看 | 国产精品情侣视频 | 色综合婷婷久久 | 日韩在线免费视频 | 欧美精品在线一区二区 | 国产69精品久久久久9999apgf | 福利视频在线看 | 国产成人av福利 | 日本精品一区二区 | 五月天综合网站 | 丁香激情视频 | 日韩精品免费一线在线观看 | 午夜影院日本 | 最近中文字幕在线中文高清版 | 日本精品视频在线 | 精品视频久久久久久 | 日韩欧美极品 | 91在线精品播放 | 免费av福利 | 婷婷中文字幕在线观看 | 久色小说 | 激情片av | 黄色视屏在线免费观看 | 干综合网 | 国产人成精品一区二区三 | 婷婷av网| 三级性生活视频 | 天堂网av 在线 | av中文字幕在线观看网站 | 久久久久久中文字幕 | 国产91在线播放 | 亚州天堂 | 色久av | 韩日三级av| 亚洲另类久久 | 日本精品视频在线观看 | a级片久久久 | 精品一区二区三区在线播放 | 精品国自产在线观看 | 亚洲国产日韩欧美 | 日韩欧美在线免费观看 | av东方在线| 中文字幕视频观看 | www毛片com| 9久久精品| 91精品秘密在线观看 | 97碰碰精品嫩模在线播放 | 久久不射影院 | 尤物九九久久国产精品的分类 | 久久久久久毛片精品免费不卡 | 亚洲美女精品区人人人人 | 日日干网 | av爱干| 国产一级在线视频 | 久久最新 | 亚洲 欧美 综合 在线 精品 | a黄色大片 | 日韩欧美第二页 | 色91在线| 精品一区在线 | 视频在线99re| 丁香婷婷射 | 日韩大片在线播放 | 波多野结衣视频在线 | 黄色软件视频大全免费下载 | 国产精品电影一区二区 | www在线观看国产 | 在线v片| 一区中文字幕 | 国产精品麻豆三级一区视频 | 亚洲在线视频免费 | 亚洲经典中文字幕 | 人人射人人爱 | 欧美日韩中文在线 | 亚洲天天综合网 | 人人要人人澡人人爽人人dvd | 精品影院一区二区久久久 | 永久中文字幕 | 久久黄色精品视频 | 免费黄色a网站 | 亚洲午夜精 | 亚洲狠狠婷婷综合久久久 | 色婷婷激情电影 | 夜夜操天天 | 综合久久久久久 | 黄色大片中国 | 在线视频中文字幕一区 | 日日夜夜精品视频 | 草久热| 狠狠色狠狠色综合日日小说 | 国产群p视频 | 国产精品自产拍 | 人人射人人爱 | 久久午夜免费观看 | 婷婷久久五月天 | av中文电影 | 米奇狠狠狠888 | 欧美 日韩 视频 | 亚洲jizzjizz日本少妇 | 成人在线免费小视频 | 麻豆视频在线看 | 国产亚洲精品久久19p | 在线精品一区二区 | 人人射人人爱 | 精品中文字幕在线播放 | 在线中文字幕播放 | 中文字幕在线影院 | 欧美日韩不卡一区 | 婷婷丁香视频 | 亚洲成a人片在线观看网站口工 | 日本爱爱免费 | 成人性生交大片免费观看网站 | 国产传媒中文字幕 | av在线免费播放网站 | 在线免费观看国产精品 | 久久久国产精品久久久 | 免费91在线观看 | 国产日韩中文字幕在线 | 亚洲国产精品成人女人久久 | 五月婷婷丁香在线观看 | 在线观看的黄色 | 日日日爽爽爽 | 亚洲在线黄色 | 成人免费网站在线观看 | 99热国产在线中文 | 国产久视频| 五月天狠狠操 | 日韩高清激情 | 日日麻批40分钟视频免费观看 | 免费av观看 | 91成人免费视频 | 91精品啪在线观看国产线免费 | 黄色大片日本免费大片 | 人人插人人搞 | 日韩三级视频在线观看 | 在线亚州| 五月天,com | 91污视频在线 | 在线天堂中文www视软件 | 亚洲午夜剧场 | 最新日韩在线观看 | 91九色在线视频 | 超碰在线人人艹 | 天天天操天天天干 | 夜夜视频欧洲 | 99av国产精品欲麻豆 | 色网站在线免费观看 | 中文字幕字幕中文 | 三级免费黄色 | 国产成人精品一区二区三区福利 | 成人资源在线 | 最新av免费在线观看 | 天天舔天天射天天操 | 久久这里有 | 亚洲最大免费成人网 | 国产一卡二卡在线 | 欧美精品久久久久性色 | 精品久久网 | 黄色av电影免费观看 | 成人h在线观看 | 精品国产视频在线 | 中文字幕亚洲综合久久五月天色无吗'' | 三级黄在线 | 国产高清区 | 精品久久久成人 | 天天草天天 | 伊甸园av在线 | 国产精品色婷婷视频 | 欧美在线观看视频 | 99久久精品午夜一区二区小说 | 黄网站大全 | 激情网站 | 国产日韩欧美自拍 | 亚洲视屏 | 二区三区精品 | 不卡电影一区二区三区 | 一级精品视频在线观看宜春院 | 日韩网站一区 | 激情欧美一区二区三区免费看 | 国产在线观 | 久久色在线观看 | 在线 国产一区 | 国产精品久久一卡二卡 | 久久综合毛片 | 欧美性猛片 | 久久这里只有精品9 | 99精品视频在线观看播放 | 亚洲成人av电影在线 | 十八岁以下禁止观看的1000个网站 | 欧美精品999 | 99热手机在线观看 | 一级特黄av | 中文字幕在线一区二区三区 | 偷拍精品一区二区三区 | 国产精品video爽爽爽爽 | 亚洲精品高清一区二区三区四区 | 午夜精品久久久久久久爽 | 国产精品久久一区二区三区不卡 | 亚洲国产精品一区二区久久hs | 亚洲精品9 | 欧美网址在线观看 | 2023国产精品自产拍在线观看 | 最近高清中文在线字幕在线观看 | 精品久久久久久久久久久久久久久久久久 | 在线观看的av | 在线观看色网 | 国产精品一级在线 | 黄网站免费久久 | 亚洲国产激情 | 网址你懂的在线观看 | 丁香六月综合网 | 亚洲精品在线电影 | 成人欧美一区二区三区黑人麻豆 | 三级性生活视频 | 免费69视频 | 国产一级免费在线 | 黄av免费在线观看 | 成人网在线免费视频 | www99精品| 激情丁香在线 | 干干操操 | 三级黄色在线 | 2019中文字幕第一页 | 五月婷婷激情综合 | 国产精品乱码一区二区视频 | 伊人射| 亚洲婷婷在线视频 | 黄a在线观看 | 国产成人精品久久亚洲高清不卡 | 日本一区二区免费在线观看 | 成人资源网 | 亚洲人成在线电影 | 亚洲国产网址 | 九色在线 | 国产亚洲午夜高清国产拍精品 | 中文字幕在线不卡国产视频 | 永久免费的av电影 | 激情自拍av | 激情九九| 国产欧美高清 | 欧美成亚洲 | 国产精品永久久久久久久www | 国产欧美最新羞羞视频在线观看 | 91视频 - 114av| 99久久成人| www.com久久 | 91精品人成在线观看 | 精品a视频 | 欧洲精品久久久久毛片完整版 | 久久久久久综合网天天 | 日韩在线在线 | 精品特级毛片 | 中文字幕最新精品 | a'aaa级片在线观看 | 欧美国产日韩一区 | 日韩夜夜爽 | 亚洲精品国产精品国自产 | 五月亚洲综合 | 国产高清不卡在线 | 欧美另类交在线观看 | 国产免费影院 | 激情六月婷婷久久 | 日韩av不卡在线播放 | 成人av午夜 | av一级片在线观看 | 日韩激情中文字幕 | 久久婷综合| 国产成人精品亚洲a | 天天操天天操天天操天天 | 黄网站色| 久久久久福利视频 | av福利免费 | 丁香五婷 | 欧美日韩后 | 五月天婷婷在线观看视频 | 久久韩国免费视频 | 我爱av激情网| 人人草在线视频 | 正在播放国产91 | 一级片免费视频 | 在线有码中文字幕 | 奇米先锋| 亚洲综合色视频在线观看 | 久久av在线播放 | 一区二区三区精品在线视频 | 97高清视频 | 色噜噜在线观看视频 | 中文久久精品 | www.国产视频 | 成人av高清 | 91手机视频 | 一级一片免费看 | av综合网址| 美女亚洲精品 | 久久电影网站中文字幕 | 久久久精品国产一区二区电影四季 | 国产xxxx做受性欧美88 | 久久99偷拍视频 | 亚洲色图美腿丝袜 | 久久综合久久综合九色 | 成人免费观看视频大全 | 亚洲jizzjizz日本少妇 | 999久久国产 | 操处女逼 | www.com在线观看| 中文字幕第一页av | 国产色小视频 | 国产剧情久久 | 欧美色图亚洲图片 | 久久国产精品99精国产 | 四虎影视精品永久在线观看 | 在线国产小视频 | 成人久久久久久久久久 | 狠狠色综合欧美激情 | 91麻豆免费版 | 日韩欧美v | 99热超碰 | av免费在线看网站 | 亚洲一二三在线 | 在线看一级片 | 欧美日韩免费一区二区 | 日韩午夜电影网 | 色妞色视频一区二区三区四区 | 日韩av免费观看网站 | 99热只有精品在线观看 | 国产91九色视频 | 中文字幕日韩一区二区三区不卡 | 精品欧美一区二区在线观看 | 成人一级影视 | 五月天婷婷在线观看视频 | 狠狠狠色丁香综合久久天下网 | 狠狠操电影网 | 国产看片免费 | 久久综合久久综合久久 | 五月激情丁香 | 精品在线观看一区二区 | 久久社区视频 | 91av视频免费观看 | www色com | 国产视频精品视频 | 久久草草影视免费网 | 婷婷视频在线播放 | 一区在线电影 | 久久免费a| 日日夜色| 久久久久久久久久福利 | 波多野结衣视频一区 | 久久99亚洲精品久久久久 | 久热香蕉视频 | 亚洲国产高清在线观看视频 | 久久免费在线 | 国产黄色片在线免费观看 | 国产精品高清av | 操综合| 亚洲一级黄色大片 | 中文永久免费观看 | 欧美日韩国产二区 | 日韩中文字幕在线观看 | 日韩欧美高清在线 | 欧美怡红院 | 五月天av在线 | 黄色av大片| 国产999精品视频 | 日韩午夜一级片 | 日韩av福利在线 | av成人在线电影 | 黄色片网站av | 亚洲日b视频 | 91影视成人 | 特级毛片在线 | 日本中文一区二区 | 天天干亚洲 | 国产午夜精品一区二区三区嫩草 | 日韩欧美视频二区 | 国产视频综合在线 | 成人中文字幕在线 | 人人爽人人爽人人片 | 综合网婷婷| 欧美一级xxxx | 婷婷五综合 | 中文不卡视频在线 | 精品欧美小视频在线观看 | 国产精品ⅴa有声小说 | 黄色av一级片 | 精品久久久久久电影 | 日韩电影精品一区 | 5月丁香婷婷综合 | 久久国产精品99久久人人澡 | 成 人 黄 色 视频 免费观看 | adc在线观看| 久久a v电影 | 不卡国产在线 | 国产一区二区精品久久91 | 日韩精品久久一区二区三区 | 亚洲国产资源 | av电影不卡在线 | 免费看麻豆 | 国产精品热视频 | 久久在线观看视频 | 成人黄色在线播放 | 97视频人人| 97超视频在线观看 | 9999激情| 国产精品美女久久 | 天天操天天爱天天干 | 亚洲精品在线观看的 | 黄色大片免费播放 | 久久99日韩 | 久久99日韩 | 国产成人在线免费观看 | 免费在线观看视频a | 国内偷拍精品视频 | 色五月色开心色婷婷色丁香 | 国产韩国精品一区二区三区 | 丁香激情综合国产 | 欧美极品在线播放 | 国产精品一区二区在线观看 | 精品黄色在线观看 | 91九色视频国产 | 国产手机在线播放 | 亚洲精品国产自产拍在线观看 | 亚洲在线高清 | 在线成人一区 | 亚洲精品乱码久久久久久按摩 | 日韩欧美在线不卡 | 最近中文字幕免费av | 激情欧美丁香 | 久草免费在线观看 | 久久9999久久免费精品国产 | 成人在线一区二区三区 | 黄色毛片在线 | 天天插狠狠干 | 92精品国产成人观看免费 | 成人免费在线电影 | 久久久久久久久久久福利 | 日韩在线激情 | 国产精品一区二区三区久久 | 国产精品成人av电影 | 91成人久久| 久久免费在线观看 | 日韩av在线网站 | 精品国产一区二区三区四区在线观看 | 日韩欧美一区二区三区视频 | 久久久久久久久久电影 | 在线观看一区 | 亚洲精品在线免费 | 欧美日韩高清国产 | 亚洲精品福利在线 | 午夜色影院 | 免费a一级 | 97超碰在线免费观看 | 欧美日韩免费视频 | 亚洲成色777777在线观看影院 | 天堂网一区二区三区 | 99 精品 在线 | 五月天久久精品 | 久久艹艹| 不卡中文字幕av | 成人免费视频观看 | 激情网站五月天 | 国产免费又黄又爽 | 精品一二三四视频 | 免费看色的网站 | 成人av动漫在线观看 | 伊人热| 亚洲精品久久久久中文字幕二区 | 精壮的侍卫呻吟h | 337p日本欧洲亚洲大胆裸体艺术 | 四虎成人网 | 日韩一级电影在线 | 国产精品成人一区二区 | 日韩激情影院 | 九九九在线观看视频 | 五月开心激情网 | 亚洲国产网址 | 69av视频在线观看 | 欧美精品久久久久久久久久白贞 | 色资源二区在线视频 | 最近中文字幕免费av | 欧美日韩三区二区 | 国产a级片免费观看 | 日韩免费在线视频观看 | 欧美精品中文在线免费观看 | 日日爽日日操 | 狠狠的日 | 欧美精品亚洲精品日韩精品 | 欧美一区二区三区激情视频 | 97超碰精品 | 天天夜夜亚洲 | 在线免费性生活片 | 国产剧情一区二区 | 日韩黄色中文字幕 | 狠狠干综合 | 在线看片91 | 久久久午夜视频 | 丁香花在线观看免费完整版视频 | 欧美在线一 | 五月天激情在线 | 97在线成人 | 国产正在播放 | 四虎国产精品成人免费影视 | 久久手机免费视频 | 99热只有精品在线观看 | 啪啪免费观看网站 | 免费色网站 | 美女视频黄,久久 | 91理论电影 | 成人网页在线免费观看 | 精品国产亚洲在线 | 欧美激情视频在线免费观看 | 欧美日韩一区二区久久 | 色偷偷av男人天堂 | 国产视频不卡 | 天天干天天操天天做 | 成x99人av在线www | 精品黄色在线观看 | 人人澡人人添人人爽一区二区 | 日本黄色大片免费看 | 国产日女人 | 亚洲欧美日韩精品一区二区 | 免费网站观看www在线观看 | 天干啦夜天干天干在线线 | 丁香综合五月 | 国产精品免费视频网站 | 国产在线观看黄 | 亚洲一区尤物 | 成年人免费看 | 激情欧美日韩一区二区 | 中文字幕第一页av | 亚洲一级久久 | 婷婷伊人综合 | 欧美大片mv免费 | 超碰激情在线 | 国产亚洲精品成人av久久影院 | 久久有精品 | 日韩欧美在线中文字幕 | 色姑娘综合网 | 在线观看亚洲视频 | 色美女在线 | 青春草视频在线播放 | 手机版av在线| 亚洲精品videossex少妇 | 成人久久免费视频 | 亚洲最大色 | 亚洲欧美日本国产 | 开心色停停 | 国产做a爱一级久久 | 黄色小说在线免费观看 | 久久精品欧美一区 | 国产免费成人av | 精品国产免费一区二区三区五区 | 亚洲成人精品av | 国产夫妻性生活自拍 | 久久亚洲私人国产精品 | 国产精品毛片一区二区在线看 | 色com网| 日本公妇色中文字幕 | 国产精品mm | 欧美男同视频网站 | 欧美精品久久人人躁人人爽 | 狠狠色丁香婷婷综合 | 韩国av电影在线观看 | 久久好看免费视频 | 97电影网手机版 | 久久九九影院 | adc在线观看 | 91成年人视频 | 国产成人精品一区二区三区福利 | 国产成人av在线影院 | 中文电影网 | 日本精品中文字幕在线观看 | 国产精品精品国产色婷婷 | 91成品视频| 中文字幕在线免费看 | 亚洲最新合集 | 午夜精品一区二区三区免费 | 国产成人精品一区二区三区福利 | 日韩特黄av | 蜜桃av久久久亚洲精品 | 伊人射| 国产精品一区二区三区久久久 | 丁香5月婷婷 | 婷香五月 | 精品国产免费一区二区三区五区 | 波多野结衣资源 | 国产免费美女 | 99精品一级欧美片免费播放 | 国产精品18久久久久vr手机版特色 | 三级av网站 | 超碰人人99 | 91精品国产欧美一区二区成人 | av电影中文字幕在线观看 | 午夜视频在线观看网站 | 在线有码中文字幕 | 免费观看黄| 亚洲人成在线观看 | 日韩免费电影在线观看 | 国产96在线视频 | 97精品欧美91久久久久久 | 欧美久久久久久久久中文字幕 | 中文字幕在线观看91 | 视频高清| 国产美女精品视频免费观看 | 婷婷色综合网 | 丝袜制服综合网 | 日韩av高潮 | 亚洲男男gaygayxxxgv |