日韩av黄I国产麻豆传媒I国产91av视频在线观看I日韩一区二区三区在线看I美女国产在线I麻豆视频国产在线观看I成人黄色短片

歡迎訪問(wèn) 生活随笔!

生活随笔

當(dāng)前位置: 首頁(yè) > 编程语言 > python >内容正文

python

python调参工作都是干啥的_Python中Gradient Boosting Machine(GBM)调参方法详解

發(fā)布時(shí)間:2023/12/19 python 44 豆豆
生活随笔 收集整理的這篇文章主要介紹了 python调参工作都是干啥的_Python中Gradient Boosting Machine(GBM)调参方法详解 小編覺(jué)得挺不錯(cuò)的,現(xiàn)在分享給大家,幫大家做個(gè)參考.

1.前言

如果一直以來(lái)你只把GBM當(dāng)作黑匣子,只知調(diào)用卻不明就里,是時(shí)候來(lái)打開(kāi)這個(gè)黑匣子一探究竟了!

這篇文章是受Owen Zhang (DataRobot的首席產(chǎn)品官,在Kaggle比賽中位列第三)在NYC Data Science Academy里提到的方法啟發(fā)而成。他當(dāng)時(shí)的演講大約有2小時(shí),我在這里取其精華,總結(jié)一下主要內(nèi)容。

不像bagging算法只能改善模型高方差(high variance)情況,Boosting算法對(duì)同時(shí)控制偏差(bias)和方差都有非常好的效果,而且更加高效。如果你需要同時(shí)處理模型中的方差和偏差,認(rèn)真理解這篇文章一定會(huì)對(duì)你大有幫助,因?yàn)槲也粌H會(huì)用Python闡明GBM算法,更重要的是會(huì)介紹如何對(duì)GBM調(diào)參,而恰當(dāng)?shù)膮?shù)往往能令結(jié)果大不相同。

特別鳴謝:?非常感謝Sudalai Rajkumar對(duì)我的大力幫助,他在AV Rank中位列第二。如果沒(méi)有他的指導(dǎo)就不會(huì)有這篇文章了。

2.目錄

Boosing是怎么工作的?

理解GBM模型中的參數(shù)

學(xué)會(huì)調(diào)參(附詳例)

3.Boosting是如何工作的?

Boosting可以將一系列弱學(xué)習(xí)因子(weak learners)相結(jié)合來(lái)提升總體模型的預(yù)測(cè)準(zhǔn)確度。在任意時(shí)間t,根據(jù)t-1時(shí)刻得到的結(jié)果我們給當(dāng)前結(jié)果賦予一個(gè)權(quán)重。之前正確預(yù)測(cè)的結(jié)果獲得較小權(quán)重,錯(cuò)誤分類的結(jié)果得到較大權(quán)重。回歸問(wèn)題的處理方法也是相似的。

讓我們用圖像幫助理解:

圖一: 第一個(gè)弱學(xué)習(xí)因子的預(yù)測(cè)結(jié)果(從左至右)

一開(kāi)始所有的點(diǎn)具有相同的權(quán)重(以點(diǎn)的尺寸表示)。

分類線正確地分類了兩個(gè)正極和五個(gè)負(fù)極的點(diǎn)。

圖二: 第二個(gè)弱學(xué)習(xí)因子的預(yù)測(cè)結(jié)果

在圖一中被正確預(yù)測(cè)的點(diǎn)有較小的權(quán)重(尺寸較小),而被預(yù)測(cè)錯(cuò)誤的點(diǎn)則有較大的權(quán)重。

這時(shí)候模型就會(huì)更加注重具有大權(quán)重的點(diǎn)的預(yù)測(cè)結(jié)果,即上一輪分類錯(cuò)誤的點(diǎn),現(xiàn)在這些點(diǎn)被正確歸類了,但其他點(diǎn)中的一些點(diǎn)卻歸類錯(cuò)誤。

對(duì)圖3的輸出結(jié)果的理解也是類似的。這個(gè)算法一直如此持續(xù)進(jìn)行直到所有的學(xué)習(xí)模型根據(jù)它們的預(yù)測(cè)結(jié)果都被賦予了一個(gè)權(quán)重,這樣我們就得到了一個(gè)總體上更為準(zhǔn)確的預(yù)測(cè)模型。

現(xiàn)在你是否對(duì)Boosting更感興趣了?不妨看看下面這些文章(主要討論GBM):

4.GBM參數(shù)

總的來(lái)說(shuō)GBM的參數(shù)可以被歸為三類:

樹(shù)參數(shù):調(diào)節(jié)模型中每個(gè)決定樹(shù)的性質(zhì)

Boosting參數(shù):調(diào)節(jié)模型中boosting的操作

其他模型參數(shù):調(diào)節(jié)模型總體的各項(xiàng)運(yùn)作

從樹(shù)參數(shù)開(kāi)始,首先一個(gè)決定樹(shù)的大致結(jié)構(gòu)是這樣的:

現(xiàn)在我們看一看定義一個(gè)決定樹(shù)所需要的參數(shù)。注意我在這里用的都是python里scikit-learn里面的術(shù)語(yǔ),和其他軟件比如R里用到的可能不同,但原理都是相同的。

min_ samples_split

定義了樹(shù)中一個(gè)節(jié)點(diǎn)所需要用來(lái)分裂的最少樣本數(shù)。

可以避免過(guò)度擬合(over-fitting)。如果用于分類的樣本數(shù)太小,模型可能只適用于用來(lái)訓(xùn)練的樣本的分類,而用較多的樣本數(shù)則可以避免這個(gè)問(wèn)題。

但是如果設(shè)定的值過(guò)大,就可能出現(xiàn)欠擬合現(xiàn)象(under-fitting)。因此我們可以用CV值(離散系數(shù))考量調(diào)節(jié)效果。

min_ samples_leaf

定義了樹(shù)中終點(diǎn)節(jié)點(diǎn)所需要的最少的樣本數(shù)。

同樣,它也可以用來(lái)防止過(guò)度擬合。

在不均等分類問(wèn)題中(imbalanced class problems),一般這個(gè)參數(shù)需要被設(shè)定為較小的值,因?yàn)榇蟛糠稚贁?shù)類別(minority class)含有的樣本都比較小。

min_ weight_ fraction_leaf

和上面min_ samples_ leaf很像,不同的是這里需要的是一個(gè)比例而不是絕對(duì)數(shù)值:終點(diǎn)節(jié)點(diǎn)所需的樣本數(shù)占總樣本數(shù)的比值。

#2和#3只需要定義一個(gè)就行了

max_ depth

定義了樹(shù)的最大深度。

它也可以控制過(guò)度擬合,因?yàn)榉诸悩?shù)越深就越可能過(guò)度擬合。

當(dāng)然也應(yīng)該用CV值檢驗(yàn)。

max_ leaf_ nodes

定義了決定樹(shù)里最多能有多少個(gè)終點(diǎn)節(jié)點(diǎn)。

這個(gè)屬性有可能在上面max_ depth里就被定義了。比如深度為n的二叉樹(shù)就有最多2^n個(gè)終點(diǎn)節(jié)點(diǎn)。

如果我們定義了max_ leaf_ nodes,GBM就會(huì)忽略前面的max_depth。

max_ features

決定了用于分類的特征數(shù),是人為隨機(jī)定義的。

根據(jù)經(jīng)驗(yàn)一般選擇總特征數(shù)的平方根就可以工作得很好了,但還是應(yīng)該用不同的值嘗試,最多可以嘗試總特征數(shù)的30%-40%.

過(guò)多的分類特征可能也會(huì)導(dǎo)致過(guò)度擬合。

在繼續(xù)介紹其他參數(shù)前,我們先看一個(gè)簡(jiǎn)單的GBM二分類偽代碼:

1. 初始分類目標(biāo)的參數(shù)值

2. 對(duì)所有的分類樹(shù)進(jìn)行迭代:

2.1 根據(jù)前一輪分類樹(shù)的結(jié)果更新分類目標(biāo)的權(quán)重值(被錯(cuò)誤分類的有更高的權(quán)重)

2.2 用訓(xùn)練的子樣本建模

2.3 用所得模型對(duì)所有的樣本進(jìn)行預(yù)測(cè)

2.4 再次根據(jù)分類結(jié)果更新權(quán)重值

3. 返回最終結(jié)果

以上步驟是一個(gè)極度簡(jiǎn)化的BGM模型,而目前我們所提到的參數(shù)會(huì)影響2.2這一步,即建模的過(guò)程。現(xiàn)在我們來(lái)看看影響boosting過(guò)程的參數(shù):

learning_ rate

這個(gè)參數(shù)決定著每一個(gè)決定樹(shù)對(duì)于最終結(jié)果(步驟2.4)的影響。GBM設(shè)定了初始的權(quán)重值之后,每一次樹(shù)分類都會(huì)更新這個(gè)值,而learning_ rate控制著每次更新的幅度。

一般來(lái)說(shuō)這個(gè)值不應(yīng)該設(shè)的比較大,因?yàn)檩^小的learning rate使得模型對(duì)不同的樹(shù)更加穩(wěn)健,就能更好地綜合它們的結(jié)果。

n_ estimators

定義了需要使用到的決定樹(shù)的數(shù)量(步驟2)

雖然GBM即使在有較多決定樹(shù)時(shí)仍然能保持穩(wěn)健,但還是可能發(fā)生過(guò)度擬合。所以也需要針對(duì)learning rate用CV值檢驗(yàn)。

subsample

訓(xùn)練每個(gè)決定樹(shù)所用到的子樣本占總樣本的比例,而對(duì)于子樣本的選擇是隨機(jī)的。

用稍小于1的值能夠使模型更穩(wěn)健,因?yàn)檫@樣減少了方差。

一把來(lái)說(shuō)用~0.8就行了,更好的結(jié)果可以用調(diào)參獲得。

好了,現(xiàn)在我們已經(jīng)介紹了樹(shù)參數(shù)和boosting參數(shù),此外還有第三類參數(shù),它們能影響到模型的總體功能:

loss

指的是每一次節(jié)點(diǎn)分裂所要最小化的損失函數(shù)(loss function)

對(duì)于分類和回歸模型可以有不同的值。一般來(lái)說(shuō)不用更改,用默認(rèn)值就可以了,除非你對(duì)它及它對(duì)模型的影響很清楚。

init

它影響了輸出參數(shù)的起始化過(guò)程

如果我們有一個(gè)模型,它的輸出結(jié)果會(huì)用來(lái)作為GBM模型的起始估計(jì),這個(gè)時(shí)候就可以用init

random_ state

作為每次產(chǎn)生隨機(jī)數(shù)的隨機(jī)種子

使用隨機(jī)種子對(duì)于調(diào)參過(guò)程是很重要的,因?yàn)槿绻覀兠看味加貌煌碾S機(jī)種子,即使參數(shù)值沒(méi)變每次出來(lái)的結(jié)果也會(huì)不同,這樣不利于比較不同模型的結(jié)果。

任一個(gè)隨即樣本都有可能導(dǎo)致過(guò)度擬合,可以用不同的隨機(jī)樣本建模來(lái)減少過(guò)度擬合的可能,但這樣計(jì)算上也會(huì)昂貴很多,因而我們很少這樣用

verbose

決定建模完成后對(duì)輸出的打印方式:

0:不輸出任何結(jié)果(默認(rèn))

1:打印特定區(qū)域的樹(shù)的輸出結(jié)果

>1:打印所有結(jié)果

warm_ start

這個(gè)參數(shù)的效果很有趣,有效地使用它可以省很多事

使用它我們就可以用一個(gè)建好的模型來(lái)訓(xùn)練額外的決定樹(shù),能節(jié)省大量的時(shí)間,對(duì)于高階應(yīng)用我們應(yīng)該多多探索這個(gè)選項(xiàng)。

presort

決定是否對(duì)數(shù)據(jù)進(jìn)行預(yù)排序,可以使得樹(shù)分裂地更快。

默認(rèn)情況下是自動(dòng)選擇的,當(dāng)然你可以對(duì)其更改

我知道我列了太多的參數(shù),所以我在我的GitHub里整理出了一張表,可以直接下載:GitHub地址

5.參數(shù)調(diào)節(jié)實(shí)例

City這個(gè)變量已經(jīng)被我舍棄了,因?yàn)橛刑喾N類了。

DOB轉(zhuǎn)為Age|DOB,舍棄了DOB

創(chuàng)建了EMI_Loan_Submitted_Missing這個(gè)變量,當(dāng)EMI_Loan_Submitted?變量值缺失時(shí)它的值為1,否則為0。然后舍棄了EMI_Loan_Submitted。

EmployerName的值也太多了,我把它也舍棄了

Existing_EMI的缺失值被填補(bǔ)為0(中位數(shù)),因?yàn)橹挥?11個(gè)缺失值

創(chuàng)建了Interest_Rate_Missing變量,類似于#3,當(dāng)Interest_Rate有值時(shí)它的值為0,反之為1,原來(lái)的Interest_Rate變量被舍棄了

Lead_Creation_Date也被舍棄了,因?yàn)閷?duì)結(jié)果看起來(lái)沒(méi)什么影響

用Loan_Amount_Applied和?Loan_Tenure_Applied的中位數(shù)填補(bǔ)了缺失值

創(chuàng)建了Loan_Amount_Submitted_Missing變量,當(dāng)Loan_Amount_Submitted有缺失值時(shí)為1,反之為0,原本的Loan_Amount_Submitted變量被舍棄

創(chuàng)建了Loan_Tenure_Submitted_Missing變量,當(dāng)Loan_Tenure_Submitted有缺失值時(shí)為1,反之為0,原本的Loan_Tenure_Submitted變量被舍棄

舍棄了LoggedIn,和Salary_Account

創(chuàng)建了Processing_Fee_Missing變量,當(dāng)Processing_Fee有缺失值時(shí)為1,反之為0,原本的Processing_Fee變量被舍棄

Source-top保留了2個(gè),其他組合成了不同的類別

對(duì)一些變量采取了數(shù)值化和獨(dú)熱編碼(One-Hot-Coding)操作

你們可以從GitHub里data_preparation iPython notebook中看到這些改變。

首先,我們加載需要的library和數(shù)據(jù):

#Import libraries:

import pandas as pd

import numpy as np

from sklearn.ensemble import GradientBoostingClassifier #GBM algorithm

from sklearn import cross_validation, metrics #Additional scklearn functions

from sklearn.grid_search import GridSearchCV #Perforing grid search

import matplotlib.pylab as plt

%matplotlib inline

from matplotlib.pylab import rcParams

rcParams['figure.figsize'] = 12, 4

train = pd.read_csv('train_modified.csv')

target = 'Disbursed'

IDcol = 'ID'

然后我們來(lái)寫一個(gè)創(chuàng)建GBM模型和CV值的函數(shù)。

def modelfit(alg, dtrain, predictors, performCV=True, printFeatureImportance=True, cv_folds=5):

#Fit the algorithm on the data

alg.fit(dtrain[predictors], dtrain['Disbursed'])

#Predict training set:

dtrain_predictions = alg.predict(dtrain[predictors])

dtrain_predprob = alg.predict_proba(dtrain[predictors])[:,1]

#Perform cross-validation:

if performCV:

cv_score = cross_validation.cross_val_score(alg, dtrain[predictors], dtrain['Disbursed'], cv=cv_folds, scoring='roc_auc')

#Print model report:

print "\nModel Report"

print "Accuracy : %.4g" % metrics.accuracy_score(dtrain['Disbursed'].values, dtrain_predictions)

print "AUC Score (Train): %f" % metrics.roc_auc_score(dtrain['Disbursed'], dtrain_predprob)

if performCV:

print "CV Score : Mean - %.7g | Std - %.7g | Min - %.7g | Max - %.7g" % (np.mean(cv_score),np.std(cv_score),np.min(cv_score),np.max(cv_score))

#Print Feature Importance:

if printFeatureImportance:

feat_imp = pd.Series(alg.feature_importances_, predictors).sort_values(ascending=False)

feat_imp.plot(kind='bar', title='Feature Importances')

plt.ylabel('Feature Importance Score')

接著就要?jiǎng)?chuàng)建一個(gè)基線模型(baseline model)。這里我們用AUC來(lái)作為衡量標(biāo)準(zhǔn),所以用常數(shù)的話AUC就是0.5。一般來(lái)說(shuō)用默認(rèn)參數(shù)設(shè)置的GBM模型就是一個(gè)很好的基線模型,我們來(lái)看看這個(gè)模型的輸出和特征重要性:

#Choose all predictors except target & IDcols

predictors = [x for x in train.columns if x not in [target, IDcol]]

gbm0 = GradientBoostingClassifier(random_state=10)

modelfit(gbm0, train, predictors)

從圖上看出,CV的平均值是0.8319,后面調(diào)整的模型會(huì)做得比這個(gè)更好。

5.1 參數(shù)調(diào)節(jié)的一般方法

之前說(shuō)過(guò),我們要調(diào)節(jié)的參數(shù)有兩種:樹(shù)參數(shù)和boosting參數(shù)。learning rate沒(méi)有什么特別的調(diào)節(jié)方法,因?yàn)橹灰覀冇?xùn)練的樹(shù)足夠多l(xiāng)earning rate總是小值來(lái)得好。

雖然隨著決定樹(shù)的增多GBM并不會(huì)明顯得過(guò)度擬合,高learing rate還是會(huì)導(dǎo)致這個(gè)問(wèn)題,但如果我們一味地減小learning rate、增多樹(shù),計(jì)算就會(huì)非常昂貴而且需要運(yùn)行很長(zhǎng)時(shí)間。了解了這些問(wèn)題,我們決定采取以下方法調(diào)參:

選擇一個(gè)相對(duì)來(lái)說(shuō)稍微高一點(diǎn)的learning rate。一般默認(rèn)的值是0.1,不過(guò)針對(duì)不同的問(wèn)題,0.05到0.2之間都可以

決定當(dāng)前l(fā)earning rate下最優(yōu)的決定樹(shù)數(shù)量。它的值應(yīng)該在40-70之間。記得選擇一個(gè)你的電腦還能快速運(yùn)行的值,因?yàn)橹筮@些樹(shù)會(huì)用來(lái)做很多測(cè)試和調(diào)參。

接著調(diào)節(jié)樹(shù)參數(shù)來(lái)調(diào)整learning rate和樹(shù)的數(shù)量。我們可以選擇不同的參數(shù)來(lái)定義一個(gè)決定樹(shù),后面會(huì)有這方面的例子

降低learning rate,同時(shí)會(huì)增加相應(yīng)的決定樹(shù)數(shù)量使得模型更加穩(wěn)健

5.2固定 learning rate和需要估測(cè)的決定樹(shù)數(shù)量

為了決定boosting參數(shù),我們得先設(shè)定一些參數(shù)的初始值,可以像下面這樣:

min_ samples_ split=500:?這個(gè)值應(yīng)該在總樣本數(shù)的0.5-1%之間,由于我們研究的是不均等分類問(wèn)題,我們可以取這個(gè)區(qū)間里一個(gè)比較小的數(shù),500。

min_ samples_ leaf=50:?可以憑感覺(jué)選一個(gè)合適的數(shù),只要不會(huì)造成過(guò)度擬合。同樣因?yàn)椴痪确诸惖脑?#xff0c;這里我們選擇一個(gè)比較小的值。

max_ depth=8:?根據(jù)觀察數(shù)和自變量數(shù),這個(gè)值應(yīng)該在5-8之間。這里我們的數(shù)據(jù)有87000行,49列,所以我們先選深度為8。

max_ features=’sqrt’:?經(jīng)驗(yàn)上一般都選擇平方根。

subsample=0.8:?開(kāi)始的時(shí)候一般就用0.8

注意我們目前定的都是初始值,最終這些參數(shù)的值應(yīng)該是多少還要靠調(diào)參決定。現(xiàn)在我們可以根據(jù)learning rate的默認(rèn)值0.1來(lái)找到所需要的最佳的決定樹(shù)數(shù)量,可以利用網(wǎng)格搜索(grid search)實(shí)現(xiàn),以10個(gè)數(shù)遞增,從20測(cè)到80。

#Choose all predictors except target & IDcols

predictors = [x for x in train.columns if x not in [target, IDcol]]

param_test1 = {'n_estimators':range(20,81,10)}

gsearch1 = GridSearchCV(estimator = GradientBoostingClassifier(learning_rate=0.1, min_samples_split=500,min_samples_leaf=50,max_depth=8,max_features='sqrt',subsample=0.8,random_state=10),

param_grid = param_test1, scoring='roc_auc',n_jobs=4,iid=False, cv=5)

gsearch1.fit(train[predictors],train[target])

來(lái)看一下輸出結(jié)果:

gsearch1.grid_scores_, gsearch1.best_params_, gsearch1.best_score_

1

可以看出對(duì)于0.1的learning rate, 60個(gè)樹(shù)是最佳的,而且60也是一個(gè)合理的決定樹(shù)數(shù)量,所以我們就直接用60。但在一些情況下上面這段代碼給出的結(jié)果可能不是我們想要的,比如:

如果給出的輸出是20,可能就要降低我們的learning rate到0.05,然后再搜索一遍。

如果輸出值太高,比如100,因?yàn)檎{(diào)節(jié)其他參數(shù)需要很長(zhǎng)時(shí)間,這時(shí)候可以把learniing rate稍微調(diào)高一點(diǎn)。

5.3 調(diào)節(jié)樹(shù)參數(shù)

樹(shù)參數(shù)可以按照這些步驟調(diào)節(jié):

調(diào)節(jié)max_depth和?num_samples_split

調(diào)節(jié)min_samples_leaf

調(diào)節(jié)max_features

需要注意一下調(diào)參順序,對(duì)結(jié)果影響最大的參數(shù)應(yīng)該優(yōu)先調(diào)節(jié),就像max_depth和num_samples_split。

重要提示:接著我會(huì)做比較久的網(wǎng)格搜索(grid search),可能會(huì)花上15-30分鐘。你在自己嘗試的時(shí)候應(yīng)該根據(jù)電腦情況適當(dāng)調(diào)整需要測(cè)試的值。

max_depth可以相隔兩個(gè)數(shù)從5測(cè)到15,而min_samples_split可以按相隔200從200測(cè)到1000。這些完全憑經(jīng)驗(yàn)和直覺(jué),如果先測(cè)更大的范圍再用迭代去縮小范圍也是可行的。

param_test2 = {'max_depth':range(5,16,2), 'min_samples_split':range(200,1001,200)}

gsearch2 = GridSearchCV(estimator = GradientBoostingClassifier(learning_rate=0.1, n_estimators=60, max_features='sqrt', subsample=0.8, random_state=10),

param_grid = param_test2, scoring='roc_auc',n_jobs=4,iid=False, cv=5)

gsearch2.fit(train[predictors],train[target])

gsearch2.grid_scores_, gsearch2.best_params_, gsearch2.best_score_

從結(jié)果可以看出,我們從30種組合中找出最佳的max_depth是9,而最佳的min_smaples_split是1000。1000是我們?cè)O(shè)定的范圍里的最大值,有可能真正的最佳值比1000還要大,所以我們還要繼續(xù)增加min_smaples_split。樹(shù)深就用9。接著就來(lái)調(diào)節(jié)min_samples_leaf,可以測(cè)30,40,50,60,70這五個(gè)值,同時(shí)我們也試著調(diào)大min_samples_leaf的值。

param_test3 = {'min_samples_split':range(1000,2100,200), 'min_samples_leaf':range(30,71,10)}

gsearch3 = GridSearchCV(estimator = GradientBoostingClassifier(learning_rate=0.1, n_estimators=60,max_depth=9,max_features='sqrt', subsample=0.8, random_state=10),

param_grid = param_test3, scoring='roc_auc',n_jobs=4,iid=False, cv=5)

gsearch3.fit(train[predictors],train[target])

gsearch3.grid_scores_, gsearch3.best_params_, gsearch3.best_score_

這樣min_samples_split的最佳值是1200,而min_samples_leaf的最佳值是60。注意現(xiàn)在CV值增加到了0.8396。現(xiàn)在我們就根據(jù)這個(gè)結(jié)果來(lái)重新建模,并再次評(píng)估特征的重要性。

modelfit(gsearch3.best_estimator_, train, predictors)

1

比較之前的基線模型結(jié)果可以看出,現(xiàn)在我們的模型用了更多的特征,并且基線模型里少數(shù)特征的重要性評(píng)估值過(guò)高,分布偏斜明顯,現(xiàn)在分布得更加均勻了。

接下來(lái)就剩下最后的樹(shù)參數(shù)max_features了,可以每隔兩個(gè)數(shù)從7測(cè)到19。

param_test4 = {'max_features':range(7,20,2)}

gsearch4 = GridSearchCV(estimator = GradientBoostingClassifier(learning_rate=0.1, n_estimators=60,max_depth=9, min_samples_split=1200, min_samples_leaf=60, subsample=0.8, random_state=10),

param_grid = param_test4, scoring='roc_auc',n_jobs=4,iid=False, cv=5)

gsearch4.fit(train[predictors],train[target])

gsearch4.grid_scores_, gsearch4.best_params_, gsearch4.best_score_

最佳的結(jié)果是7,正好就是我們?cè)O(shè)定的初始值(平方根)。當(dāng)然你可能還想測(cè)測(cè)小于7的值,我也鼓勵(lì)你這么做。而按照我們的設(shè)定,現(xiàn)在的樹(shù)參數(shù)是這樣的:

min_samples_split: 1200

min_samples_leaf: 60

max_depth: 9

max_features: 7

5.4 調(diào)節(jié)子樣本比例來(lái)降低learning rate

接下來(lái)就可以調(diào)節(jié)子樣本占總樣本的比例,我準(zhǔn)備嘗試這些值:0.6,0.7,0.75,0.8,0.85,0.9。

param_test5 = {'subsample':[0.6,0.7,0.75,0.8,0.85,0.9]}

gsearch5 = GridSearchCV(estimator = GradientBoostingClassifier(learning_rate=0.1, n_estimators=60,max_depth=9,min_samples_split=1200, min_samples_leaf=60, subsample=0.8, random_state=10,max_features=7),

param_grid = param_test5, scoring='roc_auc',n_jobs=4,iid=False, cv=5)

gsearch5.fit(train[predictors],train[target])

gsearch5.grid_scores_, gsearch5.best_params_, gsearch5.best_score_

1

2

3

4

5

給出的結(jié)果是0.85。這樣所有的參數(shù)都設(shè)定好了,現(xiàn)在我們要做的就是進(jìn)一步減少learning rate,就相應(yīng)地增加了樹(shù)的數(shù)量。需要注意的是樹(shù)的個(gè)數(shù)是被動(dòng)改變的,可能不是最佳的,但也很合適。隨著樹(shù)個(gè)數(shù)的增加,找到最佳值和CV的計(jì)算量也會(huì)加大,為了看出模型執(zhí)行效率,我還提供了我每個(gè)模型在比賽的排行分?jǐn)?shù)(leaderboard score),怎么得到這個(gè)數(shù)據(jù)不是公開(kāi)的,你很難重現(xiàn)這個(gè)數(shù)字,它只是為了更好地幫助我們理解模型表現(xiàn)。

現(xiàn)在我們先把learning rate降一半,至0.05,這樣樹(shù)的個(gè)數(shù)就相應(yīng)地加倍到120。

predictors = [x for x in train.columns if x not in [target, IDcol]]

gbm_tuned_1 = GradientBoostingClassifier(learning_rate=0.05, n_estimators=120,max_depth=9, min_samples_split=1200,min_samples_leaf=60, subsample=0.85, random_state=10, max_features=7)

modelfit(gbm_tuned_1, train, predictors)

排行得分:0.844139

接下來(lái)我們把learning rate進(jìn)一步減小到原值的十分之一,即0.01,相應(yīng)地,樹(shù)的個(gè)數(shù)變?yōu)?00。

predictors = [x for x in train.columns if x not in [target, IDcol]]

gbm_tuned_2 = GradientBoostingClassifier(learning_rate=0.01, n_estimators=600,max_depth=9, min_samples_split=1200,min_samples_leaf=60, subsample=0.85, random_state=10, max_features=7)

modelfit(gbm_tuned_2, train, predictors)

排行得分:0.848145

繼續(xù)把learning rate縮小至二十分之一,即0.005,這時(shí)候我們有1200個(gè)樹(shù)。

predictors = [x for x in train.columns if x not in [target, IDcol]]

gbm_tuned_3 = GradientBoostingClassifier(learning_rate=0.005, n_estimators=1200,max_depth=9, min_samples_split=1200, min_samples_leaf=60, subsample=0.85, random_state=10, max_features=7,

warm_start=True)

modelfit(gbm_tuned_3, train, predictors, performCV=False)

排行得分:0.848112

排行得分稍微降低了,我們停止減少learning rate,只單方面增加樹(shù)的個(gè)數(shù),試試1500個(gè)樹(shù)。

predictors = [x for x in train.columns if x not in [target, IDcol]]

gbm_tuned_4 = GradientBoostingClassifier(learning_rate=0.005, n_estimators=1500,max_depth=9, min_samples_split=1200, min_samples_leaf=60, subsample=0.85, random_state=10, max_features=7,

warm_start=True)

modelfit(gbm_tuned_4, train, predictors, performCV=False)

排行得分:0.848747

看,就這么簡(jiǎn)單,排行得分已經(jīng)從0.844升高到0.849了,這可是一個(gè)很大的提升。

還有一個(gè)技巧就是用“warm_start”選項(xiàng)。這樣每次用不同個(gè)數(shù)的樹(shù)都不用重新開(kāi)始。所有的代碼都可以從我的Github里下載到。

6.總結(jié)

這篇文章詳細(xì)地介紹了GBM模型。我們首先了解了何為boosting,然后詳細(xì)介紹了各種參數(shù)。 這些參數(shù)可以被分為3類:樹(shù)參數(shù),boosting參數(shù),和其他影響模型的參數(shù)。最后我們提到了用GBM解決問(wèn)題的?一般方法,并且用AV Data Hackathon 3.x problem數(shù)據(jù)運(yùn)用了這些方法。最后,希望這篇文章確實(shí)幫助你更好地理解了GBM,在下次運(yùn)用GBM解決問(wèn)題的時(shí)候也更有信心。

總結(jié)

以上是生活随笔為你收集整理的python调参工作都是干啥的_Python中Gradient Boosting Machine(GBM)调参方法详解的全部?jī)?nèi)容,希望文章能夠幫你解決所遇到的問(wèn)題。

如果覺(jué)得生活随笔網(wǎng)站內(nèi)容還不錯(cuò),歡迎將生活随笔推薦給好友。

视频精品一区二区三区 | 国产v在线观看 | av成人免费在线 | 亚洲国产精品成人va在线观看 | 久草在在线 | 天天操夜夜看 | 久久视频免费在线观看 | 手机看片 | 成人黄色资源 | 日韩精品91偷拍在线观看 | 伊人影院得得 | 日日干干夜夜 | 黄色av影院 | 九九久久久久久久久激情 | 日日干夜夜骑 | 三级av片| 国产精品淫 | 国产精品免费视频观看 | 中文字幕色网站 | 成人一级电影在线观看 | 日韩一区视频在线 | 欧美日在线观看 | 成年人在线 | 日韩精品欧美专区 | www.狠狠操.com | 伊人中文在线 | 久久视频在线观看中文字幕 | 亚洲国产mv | 亚洲国产一区二区精品专区 | 中文字幕在线看视频国产 | 少妇18xxxx性xxxx片 | 欧美性极品xxxx做受 | 在线小视频国产 | 一级电影免费在线观看 | 人人草人| 91麻豆国产福利在线观看 | 伊人影院得得 | 国产无套精品久久久久久 | av在线播放快速免费阴 | 久久草av| 日韩啪视频 | 久久精品久久久久 | 中文字幕在线观看第三页 | 国产在线观看中文字幕 | 久久中文字幕在线视频 | 天天色棕合合合合合合 | 五月天久久综合 | 国产九九热| 免费福利片2019潦草影视午夜 | 色综合 久久精品 | 天天干天天操 | 亚洲一区二区精品 | 精品国产亚洲一区二区麻豆 | 五月综合激情婷婷 | av怡红院 | 最新婷婷色| 欧美成年人在线视频 | 久久久久成人精品 | 91传媒激情理伦片 | 久久乱码卡一卡2卡三卡四 五月婷婷久 | 亚洲一区二区视频 | 日韩丝袜视频 | 久久人人爽 | 亚洲一级电影在线观看 | 99久久精品午夜一区二区小说 | 香蕉网在线观看 | 国产视频不卡一区 | 国产一区麻豆 | 日本成人中文字幕在线观看 | 久久精品a | 色天天中文 | 97视频总站 | 色播亚洲婷婷 | 免费在线激情电影 | 欧美日韩精品在线 | 国产小视频国产精品 | 欧美日性视频 | 亚洲精品乱码 | 91久久精品一区 | 久久国产露脸精品国产 | 精品麻豆入口免费 | 精品久久国产精品 | 国产99久久九九精品 | 91高清免费在线观看 | 久久在线精品视频 | 二区视频在线观看 | 日韩理论影院 | 亚洲欧美综合 | 亚洲视频综合 | 日韩中文字幕免费在线观看 | 久草国产在线 | 久久国产精品影片 | 中文字幕一区二区三区乱码在线 | 91激情 | 最近最新中文字幕视频 | 人人爽人人爽人人片av | 国产小视频你懂的在线 | 精品亚洲成a人在线观看 | 能在线看的av | 狠狠地操| 精品国产_亚洲人成在线 | 国产在线a不卡 | 国际精品久久久久 | 91在线文字幕 | 国产精品高潮呻吟久久久久 | 欧美色图狠狠干 | aa级黄色大片 | 99久久精品免费看国产四区 | 国产精品入口传媒 | 国产h在线播放 | 亚洲高清色综合 | 蜜桃麻豆www久久囤产精品 | 午夜视频在线观看一区二区三区 | 成人一区二区三区在线观看 | 亚洲国产人午在线一二区 | 免费亚洲视频在线观看 | 国产高清成人av | 久久伦理 | 在线国产日本 | 草久在线观看 | 美女福利视频 | 日产乱码一二三区别免费 | 蜜桃视频在线观看一区 | 日韩精品久久中文字幕 | 日韩视频在线观看免费 | 激情婷婷色 | 超碰国产人人 | 久久精品在线 | 91豆麻精品91久久久久久 | 成人毛片久久 | 一区二区在线电影 | 开心激情婷婷 | 亚洲黄色av网址 | 久久97精品 | 综合亚洲视频 | 亚洲欧洲精品久久 | 精品日韩在线 | 久影院 | 久久免费视频这里只有精品 | 国产 日韩 在线 亚洲 字幕 中文 | 久草在线视频网 | 黄污在线看 | 欧美在线观看视频免费 | 国产麻豆精品久久一二三 | 成人午夜精品久久久久久久3d | 国产无套视频 | 成人国产网站 | 久久九九久久精品 | 精品国产一区二区三区久久 | 99成人在线视频 | 欧美日韩观看 | 亚洲男女精品 | 一区二区精品久久 | 国产亚洲婷婷免费 | 在线一二三四区 | 国产网红在线观看 | 日韩欧美视频一区 | 亚洲国产中文字幕 | av免费电影在线观看 | 黄色片网站免费 | 日本资源中文字幕在线 | 亚欧洲精品视频在线观看 | 日韩免费观看一区二区 | 精品日韩在线 | 天天色天天射天天综合网 | 欧美在线你懂的 | 精品 一区 在线 | 国产乱码精品一区二区蜜臀 | 在线视频区| 久草在线视频资源 | 中文日韩在线视频 | 亚州天堂| 日韩免费av在线 | 黄色的网站在线 | 男女精品久久 | 在线岛国av| 国产视频1区2区3区 久久夜视频 | 综合网天天 | 人人插人人 | 国产精品九九九 | 亚洲四虎在线 | 在线观看日韩视频 | 日韩久久激情 | 成人欧美一区二区三区在线观看 | 808电影| 亚洲精品xxxx| 天天操狠狠干 | 日韩av在线一区二区 | 欧美日韩中文在线视频 | av 一区二区三区四区 | 欧美日韩国产二区 | 国产色黄网站 | 91精品在线观看入口 | 黄色一级性片 | 久久九九久久九九 | 免费看日韩片 | 中文字幕 国产 一区 | 免费观看成人 | 亚洲国产影院av久久久久 | 日韩av男人的天堂 | 欧美日韩视频在线观看免费 | 久久久国产精品亚洲一区 | 亚洲精品字幕在线观看 | 在线电影播放 | 成年人免费观看国产 | 日日爱网站 | 国产精品一区在线播放 | 中文字幕高清视频 | 狠狠色丁婷婷日日 | 欧美成人h版 | av免费观看网站 | 亚洲第一av在线播放 | 色婷婷狠| 久久草视频 | 免费网址在线播放 | 成人一级免费电影 | 日韩一区精品 | 91高清一区| 久久久精品久久日韩一区综合 | 91九色视频网站 | 欧美日韩在线第一页 | 在线观看成人毛片 | 成人黄色在线播放 | 久草在线中文视频 | 欧美视频99| 久久免费精品视频 | 亚洲精品欧美成人 | 成人一级片在线观看 | 久久网址 | 成人免费网站视频 | 亚洲最新精品 | 天天曰天天曰 | 成人免费视频免费观看 | 黄色小说在线观看视频 | 国产成人久久 | 香蕉视频在线免费看 | 日韩视频在线观看免费 | 激情久久久久久久久久久久久久久久 | 亚洲资源在线观看 | 中文字幕在线久一本久 | 国产黄色观看 | 麻豆久久久久 | 黄色美女免费网站 | 国产精品成人一区二区 | 日韩精品久久久久久久电影竹菊 | 一区二区三区四区在线免费观看 | 国产色中涩| 精品在线99| 中文字幕观看av | 日韩欧美一区二区三区黑寡妇 | 日韩精品一区二区不卡 | www178ccom视频在线 | 欧美一二三专区 | 深爱激情综合 | 亚洲国产精品一区二区久久hs | 99久久9| 一区二区三区视频在线 | 97成人精品视频在线播放 | 91在线www | 中文字幕精 | 亚洲成人第一区 | 在线黄色国产电影 | 国内久久 | 中文字幕在线人 | 国产在线播放一区 | 国产午夜在线观看视频 | 国语精品久久 | 日韩免费看视频 | 天天干夜夜夜 | 欧美成人91 | 五月天视频网 | 精品一区免费 | 日韩综合精品 | 亚洲激情六月 | 天天搞天天干天天色 | 少妇性色午夜淫片aaaze | 午夜精品一区二区国产 | 国产精品99久久久精品免费观看 | 日韩精品视频免费专区在线播放 | 西西www444 | 亚洲综合视频网 | 精油按摩av | 手机av看片 | 激情久久影院 | 在线观看黄色免费视频 | 在线观看视频亚洲 | 久草亚洲视频 | 日韩av电影国产 | 欧美一级片播放 | 在线不卡视频 | 色综合天天综合 | 在线观看理论 | 成人免费 在线播放 | 在线之家官网 | 精品久久久国产 | 国产日本高清 | 久久人人爽爽人人爽人人片av | 97国产一区二区 | 福利一区二区在线 | 亚洲黄色大片 | 亚洲精品国产欧美在线观看 | 欧美精品久久久久久久免费 | 精品在线视频观看 | www.天天干 | 91桃色视频| 中文字幕在线视频一区 | 五月婷婷黄色网 | 91亚洲精品国产 | 亚洲精品国精品久久99热一 | 国产亚洲精品久久久久秋 | 婷婷福利影院 | 婷婷www| 91看片在线播放 | 91大神电影 | 五月婷婷丁香综合 | 激情图片qvod | av亚洲产国偷v产偷v自拍小说 | 亚洲国产一区在线观看 | 美女免费视频观看网站 | 在线中文字幕电影 | 亚洲va欧美va人人爽春色影视 | www.伊人网.com| 91少妇精拍在线播放 | 久久伊人热 | 天天操福利视频 | 夜夜骑天天操 | 婷婷综合在线 | 国产一区二区在线免费播放 | 色五婷婷 | 国产在线高清视频 | 五月花激情 | 亚洲一区二区观看 | 91九色视频在线观看 | 国产黄色看片 | 国产精品久久久久久久久免费 | 久草视频在线资源 | 国产成人综合在线观看 | 日韩大陆欧美高清视频区 | 国产精品99久久99久久久二8 | 婷婷色综合网 | 精品二区久久 | 午夜男人影院 | 欧美日韩视频一区二区三区 | 亚洲激情婷婷 | 女人高潮一级片 | 日韩中文字幕网站 | 五月婷婷在线视频 | 免费看的黄色小视频 | 99视频在线免费播放 | 久久都是精品 | 天天干,天天草 | 久久久人人爽 | 婷婷综合五月天 | 色噜噜日韩精品一区二区三区视频 | 国产精品一区二区av日韩在线 | 免费看片日韩 | 91精品视频在线看 | 国产又粗又猛又色又黄视频 | 亚洲激情一区二区三区 | 欧美韩日在线 | 在线天堂中文在线资源网 | 日本不卡视频 | 免费在线看v| 国产 在线观看 | 色片网站在线观看 | 久久精品综合一区 | 久久99亚洲精品久久久久 | 人人澡人人干 | 亚洲乱码久久 | 天堂黄色片 | 国产美女免费视频 | 国产在线观看,日本 | 日韩精品在线观看av | 欧美日韩xx | av高清免费| 日韩精品久久久久久久电影竹菊 | 91大神免费在线观看 | 808电影免费观看三年 | 狠狠狠狠狠操 | 久久久免费精品视频 | 久久成年人视频 | 天天在线免费视频 | 久久99国产精品自在自在app | 欧美性视频网站 | 色橹橹欧美在线观看视频高清 | 日韩精品视频第一页 | 成 人 黄 色视频免费播放 | 成人国产精品av | 在线免费看片 | 欧美日韩中文国产一区发布 | 狠日日 | 日韩二区在线播放 | 91麻豆精品国产自产在线游戏 | 久久96国产精品久久99漫画 | 99r在线视频 | 九九爱免费视频 | 五月天网站在线 | 精品国产精品国产偷麻豆 | 国产精品乱码一区二三区 | 中文字幕区 | 国产福利中文字幕 | 最近在线中文字幕 | 在线看毛片网站 | 久久久视屏 | 国产日韩精品一区二区三区在线 | 久草在线手机观看 | 欧美成人手机版 | 国产手机在线观看视频 | 国产精品大片免费观看 | 日韩在线免费观看视频 | 婷婷六月丁| 999久久a精品合区久久久 | 日韩1页 | 国产精品成人国产乱一区 | 国产精品成人在线观看 | 色综合久久久久综合体 | 久久国产亚洲视频 | 五月婷婷黄色 | 欧美日韩大片在线观看 | 992tv在线观看 | 96久久欧美麻豆网站 | 亚洲精品美女久久17c | 日本韩国精品一区二区在线观看 | 欧美日韩aaaa | 久久欧美在线电影 | www色婷婷com| 91理论片午午伦夜理片久久 | 成人小视频在线免费观看 | 亚洲精品一区二区网址 | 91九色视频在线播放 | 天天色天天射天天综合网 | 黄色片免费电影 | 日韩av中文在线 | 又黄又爽的视频在线观看网站 | 毛片网站在线 | 综合久久网 | 亚洲免费一级电影 | 一区二精品 | 一区二区三区电影大全 | 日日操狠狠干 | 色综合久 | 天天爽夜夜爽人人爽曰av | 日韩高清一区 | 成人av午夜| 久久久久国产精品一区二区 | 精品欧美乱码久久久久久 | 蜜臀91丨九色丨蝌蚪老版 | 中文字幕在线一区观看 | 一本色道久久综合亚洲二区三区 | 成人永久在线 | 97国产精品久久 | 视频一区亚洲 | 免费av 在线 | 91最新网址在线观看 | 久久午夜精品影院一区 | 在线亚洲欧美日韩 | 午夜精品电影一区二区在线 | 91夫妻自拍| 亚洲精品看片 | 91探花在线视频 | 激情视频网页 | 中文字幕在线影院 | 国产黄色片一级三级 | 综合国产在线 | 久草视频在 | 色综合五月天 | 国产99一区视频免费 | 麻豆小视频在线观看 | 日韩三级免费观看 | 国产免费一区二区三区最新6 | 国内视频1区 | 最近日本中文字幕a | 成人福利av | 国产精品嫩草在线 | 在线观看中文字幕网站 | 欧美日在线 | 在线观看成人网 | 91一区在线观看 | 日韩网站免费观看 | www.av免费| 久久另类小说 | 国产日韩精品一区二区三区在线 | 粉嫩av一区二区三区四区在线观看 | 在线观看福利网站 | 午夜.dj高清免费观看视频 | 中文视频在线 | 成人一区二区三区在线 | 日韩乱色精品一区二区 | www.久热 | 欧美日韩一区二区在线 | 久久久国产精品久久久 | 午夜影院在线观看18 | 精品9999| 91久久爱热色涩涩 | 久久视频国产 | 免费福利视频导航 | 日韩免费视频线观看 | 亚洲欧美日韩精品久久久 | 中文在线www | 天天干,天天射,天天操,天天摸 | 91理论片午午伦夜理片久久 | 午夜精品久久 | 丁香狠狠 | 国产成人福利在线观看 | 日日夜夜草 | 亚洲视频中文 | 亚洲黄色在线 | 久久字幕 | 日日日网 | 草久热| 日韩啪啪小视频 | 久久试看| 亚洲电影院 | 国产永久免费高清在线观看视频 | 午夜黄色影院 | 国内成人av | 欧美 日韩 国产 中文字幕 | 精精国产xxxx视频在线播放 | aaawww | 97在线观看免费观看 | 极品中文字幕 | 午夜性福利 | 97成人超碰 | 久久久久久国产精品999 | www.黄色网.com | 日韩最新中文字幕 | 国产综合婷婷 | 精品免费久久久久 | 亚洲 欧美变态 另类 综合 | 五月色综合 | 又黄又爽又无遮挡免费的网站 | 亚洲在线成人精品 | 视频国产区| 亚洲欧美日韩在线看 | 999国内精品永久免费视频 | 网站在线观看日韩 | 91黄视频在线观看 | 福利视频在线看 | 国产美女久久 | 中文乱码视频在线观看 | 色婷婷综合在线 | 日韩黄色在线电影 | 国产 在线 高清 精品 | 欧美日韩久久不卡 | 永久免费毛片在线观看 | 久久国产精品电影 | 久久天天躁夜夜躁狠狠躁2022 | 91在线小视频 | 久久99视频免费观看 | 99热这里精品 | 欧美一级淫片videoshd | 美女免费网视频 | av电影中文字幕 | 国产欧美久久久精品影院 | 婷婷色5月 | 天天干,狠狠干 | 精品日韩在线一区 | 麻豆精品视频 | 夜夜高潮夜夜爽国产伦精品 | 国产xx在线 | 在线播放 日韩专区 | 国产精彩视频一区 | 91麻豆看国产在线紧急地址 | 96久久欧美麻豆网站 | 久久久久久久久久电影 | 国产偷国产偷亚洲清高 | 免费日韩一区二区 | 97电影在线看视频 | 黄色三级免费 | 日韩精品视频在线免费观看 | 日韩av偷拍 | 91视频免费网址 | 97超碰人 | 中文字幕一二三区 | 中文字幕在线观看亚洲 | 久草久草在线观看 | 日女人电影 | 色网站在线观看 | av综合网址 | 日韩色中色 | av黄色成人| 久久精品电影网 | 在线观看亚洲国产精品 | 国产成人61精品免费看片 | www.xxx.性狂虐| 69久久夜色精品国产69 | 日本公妇在线观看高清 | 成年人黄色在线观看 | 91亚洲精品久久久中文字幕 | 久久一区二区免费视频 | 婷婷丁香六月天 | 六月丁香在线视频 | 香蕉视频免费在线播放 | 国产一级久久 | 婷婷综合伊人 | 九九久久久 | 少妇精69xxtheporn| 亚洲国产中文字幕在线观看 | 在线观看成人国产 | 九九精品在线观看 | 少妇视频一区 | 日本久久综合视频 | 麻豆成人在线观看 | 久久看片网站 | 国产精品一区二区美女视频免费看 | 欧美成人在线免费 | 婷婷av网站 | 天天草天天草 | 免费污片 | 国产精品一区二区视频 | 免费看一级黄色大全 | 天天激情综合 | 日韩a在线观看 | 美女免费视频黄 | 天堂在线成人 | 精品不卡视频 | 五月婷婷.com | 99久久精品久久久久久清纯 | 三级黄色片子 | 久草在线一免费新视频 | 日韩精品中文字幕在线 | 国产精品99久久久久久小说 | 狠狠色丁香婷婷综合久小说久 | 日韩精品一区二区三区水蜜桃 | 草久在线视频 | www.97色.com | 亚洲涩涩网站 | 91看片一区二区三区 | a黄色一级 | 美女国内精品自产拍在线播放 | 日韩欧美亚州 | 日韩性片| 亚洲欧洲成人 | 国产高清区 | 国产露脸91国语对白 | 在线精品视频免费播放 | 蜜桃久久久| www黄色 | 天天天干天天天操 | 99久久精品国产系列 | 天天色天天色 | 免费一级片在线观看 | 日韩黄色在线电影 | 天天综合视频在线观看 | 久久国产精品99久久人人澡 | 中文字幕资源在线观看 | 欧美日韩不卡一区二区 | 亚洲六月丁香色婷婷综合久久 | 中日韩男男gay无套 日韩精品一区二区三区高清免费 | 一区二区三区高清在线观看 | 国产小视频国产精品 | 中文字幕欧美激情 | 视频二区 | 天天草天天操 | 免费网站在线观看成人 | 日日夜操 | 久久久久久久久久网 | 美女av在线免费 | 青青河边草免费观看完整版高清 | 午夜免费视频网站 | 中字幕视频在线永久在线观看免费 | 日日夜夜噜噜噜 | 97在线观 | 一区二区三区四区不卡 | 中文字幕在线观看播放 | 国产视频2区| 亚洲观看黄色网 | 91免费在线播放 | 日精品 | 91av精品| 亚洲精品国产精品国自产在线 | 激情片av | 最新的av网站 | 综合久久久久久久久 | 国产成人精品在线观看 | 欧美中文字幕第一页 | 国产成人一二片 | 亚洲国产片 | 狠狠狠色丁香综合久久天下网 | 日韩在线第一 | 中文字幕av在线免费 | 91在线视频播放 | 黄av资源 | 久久视频免费在线观看 | 国产福利小视频在线 | 亚洲国产精品推荐 | 亚洲视频 视频在线 | 99视频久 | 久久精品成人热国产成 | 国产精品网址在线观看 | www.伊人网.com| 日韩在线 一区二区 | 99久久婷婷国产综合精品 | 91爱爱视频 | 天天操月月操 | 免费看三级黄色片 | 精品电影一区 | 欧美最猛性xxxxx(亚洲精品) | 久久成人精品电影 | 最近更新的中文字幕 | 日本不卡一区二区三区在线观看 | 九九九在线观看视频 | 国产精品欧美久久久久无广告 | 91私密视频 | 中文字幕国内精品 | 免费日韩视 | 成年人免费看片 | 久草久草在线 | 天天色影院| 伊人资源视频在线 | 免费视频黄色 | 久久免费在线视频 | 久久久久久久久久网站 | 亚洲国产成人在线观看 | 成人91视频| 黄色免费在线视频 | 日韩欧美视频免费观看 | 久久综合电影 | 成人中文字幕+乱码+中文字幕 | 深爱婷婷网| 在线观看 国产 | 久久国语| 开心色激情网 | www.午夜| 日韩动态视频 | 国产精品久久久久av | 久av在线 | 一二区av| 99r在线观看 | 西西4444www大胆无视频 | 激情网站免费观看 | 在线亚洲天堂网 | 最新中文字幕在线播放 | 久久天天操 | 国产精品第三页 | 91色在线观看 | 国产精品一区二区久久久 | 国产一级特黄电影 | 又黄又爽又刺激 | 精品成人在线 | 97电影手机版 | 在线免费观看视频一区 | 天天操夜夜想 | 玖玖玖影院 | 97视频免费播放 | 日韩在线不卡视频 | 国产麻豆视频免费观看 | 亚洲日日日 | 亚洲免费一级 | 在线观看黄色免费视频 | 久久乱码卡一卡2卡三卡四 五月婷婷久 | 国产一级片网站 | 99热这里只有精品8 久久综合毛片 | 波多野结衣理论片 | 狠狠操在线 | 一区二区三区电影在线播 | 91视频在线观看免费 | www.午夜视频 | 国产精品久久久久久超碰 | 成年人网站免费在线观看 | 久久久国产精品麻豆 | 成人国产在线 | 久久精品免费看 | 欧美一区二区三区在线看 | 精品99免费 | 成人午夜电影在线 | av免费在线观 | 狠狠的日| 色噜噜狠狠狠狠色综合久不 | 91正在播放 | 欧美日韩国产一区二区三区 | 国产精品午夜久久 | 亚洲国产美女久久久久 | 国产午夜不卡 | 成人h视频在线 | 成人午夜电影在线播放 | 国产一区在线播放 | 国产免费一区二区三区网站免费 | 香蕉久草 | 国产精品久久久久久爽爽爽 | 狠狠色丁香婷婷综合久久片 | 在线中文字幕av观看 | 精品国产一区二区三区日日嗨 | 免费看日韩片 | 99视频免费观看 | 91精品视频一区二区三区 | 亚洲综合导航 | 日韩三级av | 99精品视频网站 | 精品视频在线播放 | 国产精品麻豆99久久久久久 | 免费av免费观看 | 国产高清专区 | 日韩在线视频一区二区三区 | 国产视频一区二区在线播放 | 国产精品区在线观看 | 国产直播av | 国产网红在线观看 | 国产精品美女www爽爽爽视频 | 色吊丝在线永久观看最新版本 | 一区二区三区在线免费观看 | 国产精品久久久久久久久久久久午 | 亚洲精品国产欧美在线观看 | 在线看国产一区 | 亚洲欧洲视频 | 亚洲精品乱码久久久久久写真 | 五月婷久| 国产免费一区二区三区最新 | 久久成人精品视频 | 欧美日韩精品影院 | 国产精品视频免费在线观看 | 久久免费国产电影 | 一级黄色在线免费观看 | 国产大片免费久久 | 五月天国产| 国产日产精品久久久久快鸭 | 亚洲精品人人 | 欧美精品黑人性xxxx | 三级免费黄色 | 亚洲一区二区精品3399 | av成人在线电影 | 91理论电影 | 1000部国产精品成人观看 | 日韩啪啪小视频 | 不卡视频国产 | 2023国产精品自产拍在线观看 | 岛国大片免费视频 | 久久一区二区三区日韩 | 天天视频色 | 国产伦理久久精品久久久久_ | 最近中文字幕在线中文高清版 | 亚洲人人爱 | 亚洲最大av网站 | 99久久99久久精品国产片果冰 | 三级免费黄| 精品久久91 | 天堂av中文字幕 | 五月婷婷激情综合网 | 婷婷视频导航 | 91九色综合 | 国产精品6999成人免费视频 | 国产日产av | 精品在线看 | 免费在线观看av电影 | 最新中文字幕 | 亚洲综合色站 | 色吊丝在线永久观看最新版本 | 欧美 日韩 视频 | 亚洲综合网站在线观看 | 亚洲女欲精品久久久久久久18 | 97精品国产91久久久久久 | 天天色天天色 | 日韩精品一区不卡 | 日日干天天| 久久精品久久久久 | 在线一区观看 | 日韩三级成人 | 久久精品久久精品久久精品 | 国产一级在线观看 | 99热这里| 人人爽人人澡人人添人人人人 | 欧美另类网站 | av电影中文 | 超碰国产在线播放 | av性网站| 亚洲欧美日韩在线看 | 亚洲精品午夜aaa久久久 | 激情欧美在线观看 | 一区二区视频在线播放 | 国产香蕉视频 | 国产精品观看在线亚洲人成网 | 久久精品久久久精品美女 | 久久这里只有精品1 | 色婷婷一区 | 国产精品久久久久久妇 | 亚洲精品久久久久久久不卡四虎 | 在线综合色 | 久久手机在线视频 | 国产老太婆免费交性大片 | 日韩成人免费在线观看 | 美女视频是黄的免费观看 | 日韩电影黄色 | 日本不卡一区二区 | 久久久久久久久久久影视 | 欧美色图88 | av片一区| www在线免费观看 | 日韩免费看片 | av中文字幕网 | 精品久久久久久亚洲综合网 | 国产精品6999成人免费视频 | 一级性生活片 | 美腿丝袜一区二区三区 | 久久久久国产一区二区三区四区 | 最近的中文字幕大全免费版 | 91精品一区国产高清在线gif | 波多野结衣电影一区二区 | 91资源在线免费观看 | 中日韩欧美精彩视频 | av免费在线观看1 | 在线免费观看黄 | 国产美腿白丝袜足在线av | 成年人精品 | 国产精品岛国久久久久久久久红粉 | 久久久久久久福利 | 欧美三级高清 | 国产精品一区二区在线观看免费 | 亚洲情感电影大片 | 国产精品一码二码三码在线 | 精品国产电影一区二区 | 亚洲欧美日韩中文在线 | 97人人爽 | 亚洲自拍偷拍色图 | 一区二区久久 | 999久久久精品视频 日韩高清www | 91人人揉日日捏人人看 | 1024久久 | 98精品国产自产在线观看 | 精品少妇一区二区三区在线 | 日本韩国在线不卡 | 精品视频免费在线 | 在线看片中文字幕 | 久久国产网站 | 久久av电影 | 国产一在线精品一区在线观看 | 中文字幕在线观看视频免费 | 麻豆一精品传二传媒短视频 | 国产123区在线观看 国产精品麻豆91 | 狠狠伊人 | 亚洲欧美日韩在线一区二区 | 日韩欧美高清一区二区三区 | 97爱爱爱| 97精品在线观看 | 日本中文字幕影院 | 日日干夜夜操视频 | 国产午夜影院 | 国产精品成人国产乱一区 | 最新av在线播放 | 色婷婷亚洲 | 探花视频免费观看高清视频 | 成人黄色在线视频 | 九九热.com| 国产精品男女啪啪 | 99热这里是精品 | 久久免费精彩视频 | 久香蕉| 蜜桃麻豆www久久囤产精品 | 日韩av不卡在线观看 | 又黄又网站 | 欧美日韩精品综合 | 婷色| 涩涩伊人| 有码中文在线 | 亚洲视频,欧洲视频 | 中文字幕传媒 | 91精品欧美一区二区三区 | 亚洲精品网址在线观看 | 在线观看国产福利片 | 国产 色 | .国产精品成人自产拍在线观看6 | 一区二区三区日韩精品 | 亚州av网站大全 | 99国产精品久久久久久久久久 | 精品久久久成人 | 最新午夜电影 | 亚洲视频在线观看网站 | 久久99视频免费 | 国产成人精品亚洲日本在线观看 | 久久免费黄色大片 | 久久99精品久久久久久三级 | 成人久久免费 | 黄色视屏免费在线观看 | 亚洲精品免费观看视频 | 中文字幕在线播放第一页 | 四虎国产视频 | 日韩a欧美 | 免费97视频 | 99麻豆视频 | 久久成人国产精品 | 天天插日日插 | 在线观看黄污 | av线上看| 在线观看中文字幕亚洲 | av三级av| 欧美激情精品久久久久久免费印度 | 99精品国产免费久久久久久下载 | 久热电影 | 国产在线a不卡 | 99精品免费视频 | 亚洲国产手机在线 | 欧美成人在线免费 | 精品一区二区在线免费观看 | 久章草在线 | 日本一区二区三区视频在线播放 | 色网站中文字幕 | 九九九九热精品免费视频点播观看 | 久久精品久久综合 | 九九视频这里只有精品 |