日韩av黄I国产麻豆传媒I国产91av视频在线观看I日韩一区二区三区在线看I美女国产在线I麻豆视频国产在线观看I成人黄色短片

歡迎訪問 生活随笔!

生活随笔

當前位置: 首頁 > 编程资源 > 编程问答 >内容正文

编程问答

集成方法:渐进梯度回归树GBRT(迭代决策树)

發布時間:2023/12/14 编程问答 50 豆豆
生活随笔 收集整理的這篇文章主要介紹了 集成方法:渐进梯度回归树GBRT(迭代决策树) 小編覺得挺不錯的,現在分享給大家,幫大家做個參考.

http://blog.csdn.net/pipisorry/article/details/60776803

單決策樹C4.5由于功能太簡單,并且非常容易出現過擬合的現象,于是引申出了許多變種決策樹,就是將單決策樹進行模型組合,形成多決策樹,比較典型的就是迭代決策樹GBRT和隨機森林RF。在最近幾年的paper上,如iccv這種重量級會議,iccv 09年的里面有不少文章都是與Boosting和隨機森林相關的。模型組合+決策樹相關算法有兩種比較基本的形式:隨機森林RF與GBDT,其他比較新的模型組合+決策樹算法都是來自這兩種算法的延伸。首先說明一下,GBRT這個算法有很多名字,但都是同一個算法:GBRT (Gradient BoostRegression Tree) 漸進梯度回歸樹,GBDT (Gradient BoostDecision Tree) 漸進梯度決策樹,MART (MultipleAdditive Regression Tree) 多決策回歸樹,Tree Net決策樹網絡。

GBDT(Gradient?Boosting?Decision?Tree)?又叫?MART(Multiple?Additive?Regression?Tree),是一種迭代的決策樹算法,該算法由多棵決策樹組成,所有樹的結論累加起來做最終答案。它在被提出之初就和SVM一起被認為是泛化能力(generalization)較強的算法。近些年更因為被用于搜索排序的機器學習模型而引起大家關注。GBRT是回歸樹,不是分類樹(盡管GBDT調整后也可用于分類但不代表GBDT的樹是分類樹)。其核心就在于,每一棵樹是從之前所有樹的殘差中來學習的。為了防止過擬合,和Adaboosting一樣,也加入了boosting這一項。

GBDT主要由三個概念組成:Regression?Decistion?Tree(即DT),Gradient?Boosting(即GB),Shrinkage?(算法的一個重要演進分枝,目前大部分源碼都按該版本實現)。搞定這三個概念后就能明白GBDT是如何工作的,要繼續理解它如何用于搜索排序則需要額外理解RankNet概念。

Gradient Tree Boosting或Gradient Boosted Regression Trees(GBRT)是一個boosting的泛化表示,它使用了不同的loss函數。GBRT是精確、現成的過程,用于解決回歸/分類問題。Gradient Tree Boosting模型則用于許多不同的領域:比如:網頁搜索Ranking、ecology等。

GBRT優缺點

GBRT的優點是:
??? 天然就可處理不同類型的數據(=各種各樣的features)
??? 預測能力強
??? 對空間外的異常點處理很健壯(通過健壯的loss函數)
GBRT的缺點是:
??? 擴展性不好,因為boosting天然就是順序執行的,很難并行化

回歸樹是如何工作的?

我們以對人的性別判別/年齡預測為例來說明,每個instance都是一個我們已知性別/年齡的人,而feature則包括這個人上網的時長、上網的時段、網購所花的金額等。
??? 分類樹,我們知道C4.5分類樹在每次分枝時,是窮舉每一個feature的每一個閾值,找到使得按照feature<=閾值,和feature>閾值分成的兩個分枝的熵最大的feature和閾值(熵最大的概念可理解成盡可能每個分枝的男女比例都遠離1:1),按照該標準分枝得到兩個新節點,用同樣方法繼續分枝直到所有人都被分入性別唯一的葉子節點,或達到預設的終止條件,若最終葉子節點中的性別不唯一,則以多數人的性別作為該葉子節點的性別。
??? 回歸樹總體流程類似,不過在每個節點(不一定是葉子節點)都會得一個預測值,以年齡為例,該預測值等于屬于這個節點的所有人年齡的平均值{Note: 分裂點最優值是分裂點所有x對應y值的均值c,因內部最小平方誤差最小[統計學習方法 5.5CART算法]}。分枝時窮舉每一個feature的每個閾值找最好的分割點,但衡量最好的標準不再是最大熵,而是最小化均方差--即(每個人的年齡-預測年齡)^2 的總和 / N,或者說是每個人的預測誤差平方和 除以 N。這很好理解,被預測出錯的人數越多,錯的越離譜,均方差就越大,通過最小化均方差能夠找到最靠譜的分枝依據。分枝直到每個葉子節點上人的年齡都唯一(這太難了)或者達到預設的終止條件(如葉子個數上限),若最終葉子節點上人的年齡不唯一,則以該節點上所有人的平均年齡做為該葉子節點的預測年齡。

[統計學習方法 5.5CART算法]

算法原理

不是每棵樹獨立訓練

Boosting,迭代,即通過迭代多棵樹來共同決策。這怎么實現呢?難道是每棵樹獨立訓練一遍,比如A這個人,第一棵樹認為是10歲,第二棵樹認為是0歲,第三棵樹認為是20歲,我們就取平均值10歲做最終結論?--當然不是!且不說這是投票方法并不是GBDT,只要訓練集不變,獨立訓練三次的三棵樹必定完全相同,這樣做完全沒有意義。之前說過,GBDT是把所有樹的結論累加起來做最終結論的,所以可以想到每棵樹的結論并不是年齡本身,而是年齡的一個累加量。

GBDT的核心就在于,每一棵樹學的是之前所有樹結論和的殘差,這個殘差就是一個加預測值后能得真實值的累加量。比如A的真實年齡是18歲,但第一棵樹的預測年齡是12歲,差了6歲,即殘差為6歲。那么在第二棵樹里我們把A的年齡設為6歲去學習,如果第二棵樹真的能把A分到6歲的葉子節點,那累加兩棵樹的結論就是A的真實年齡;如果第二棵樹的結論是5歲,則A仍然存在1歲的殘差,第三棵樹里A的年齡就變成1歲,繼續學。這就是Gradient Boosting在GBDT中的意義。

殘差提升

算法流程解釋1


0.給定一個初始值

1.建立M棵決策樹(迭代M次){Note: 每次迭代生成一棵決策樹}

2.對函數估計值F(x)進行Logistic變換(Note:只是歸一化而已)

3.對于K各分類進行下面的操作(其實這個for循環也可以理解為向量的操作,每個樣本點xi都對應了K種可能的分類yi,所以yi,F(xi),p(xi)都是一個K維向量)

4.求得殘差減少的梯度方向

5.根據每個樣本點x,與其殘差減少的梯度方向,得到一棵由J個葉子節點組成的決策樹

6.當決策樹建立完成后,通過這個公式,可以得到每個葉子節點的增益(這個增益在預測時候用的)

???????每個增益的組成其實也是一個K維向量,表示如果在決策樹預測的過程中,如果某個樣本點掉入了這個葉子節點,則其對應的K個分類的值是多少。比如GBDT得到了三棵決策樹,一個樣本點在預測的時候,也會掉入3個葉子節點上,其增益分別為(假設為3分類問題):

(0.5, 0.8, 0.1), (0.2, 0.6, 0.3), (0.4, .0.3, 0.3),那么這樣最終得到的分類為第二個,因為選擇分類2的決策樹是最多的。

7.將當前得到的決策樹與之前的那些決策樹合并起來,作為一個新的模型(跟6中的例子差不多)

算法流程解釋2

梯度提升

不同于前面的殘差提升算法,這里使用loss函數的梯度近似殘差(對于平方loss其實就是殘差,一般loss函數就是殘差的近似)。解決殘差計算困難問題。

------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------

GBRT示例1(殘差)

? ? ? ? 年齡預測,簡單起見訓練集只有4個人,A,B,C,D,他們的年齡分別是14,16,24,26。其中A、B分別是高一和高三學生;C,D分別是應屆畢業生和工作兩年的員工。如果是用一棵傳統的回歸決策樹來訓練,會得到如下圖1所示結果:


? ? ? ? 現在我們使用GBDT來做這件事,由于數據太少,我們限定葉子節點做多有兩個,即每棵樹只有一個分枝,并且限定只學兩棵樹。我們會得到如下圖2所示結果:?


? ? ? ? 在第一棵樹分枝和圖1一樣,由于A,B年齡較為相近,C,D年齡較為相近,他們被分為兩撥,每撥用平均年齡作為預測值。此時計算殘差(殘差的意思就是:?A的預測值?+?A的殘差?=?A的實際值),所以A的殘差就是16-15=1(注意,A的預測值是指前面所有樹累加的和,這里前面只有一棵樹所以直接是15,如果還有樹則需要都累加起來作為A的預測值)。進而得到A,B,C,D的殘差分別為-1,1,-1,1。然后我們拿殘差替代A,B,C,D的原值,到第二棵樹去學習,如果我們的預測值和它們的殘差相等,則只需把第二棵樹的結論累加到第一棵樹上就能得到真實年齡了。這里的數據顯然是我可以做的,第二棵樹只有兩個值1和-1,直接分成兩個節點。此時所有人的殘差都是0,即每個人都得到了真實的預測值。換句話說,現在A,B,C,D的預測值都和真實年齡一致了。

A:?14歲高一學生,購物較少,經常問學長問題;預測年齡A?=?15?–?1?=?14

B:?16歲高三學生;購物較少,經常被學弟問問題;預測年齡B?=?15?+?1?=?16

C:?24歲應屆畢業生;購物較多,經常問師兄問題;預測年齡C?=?25?–?1?=?24

D:?26歲工作兩年員工;購物較多,經常被師弟問問題;預測年齡D?=?25?+?1?=?26?

問題

?1)既然圖1和圖2 最終效果相同,為何還需要GBDT呢?
??? 答案是過擬合。過擬合是指為了讓訓練集精度更高,學到了很多”僅在訓練集上成立的規律“,導致換一個數據集當前規律就不適用了。其實只要允許一棵樹的葉子節點足夠多,訓練集總是能訓練到100%準確率的(大不了最后一個葉子上只有一個instance)。在訓練精度和實際精度(或測試精度)之間,后者才是我們想要真正得到的。
??? 我們發現圖1為了達到100%精度使用了3個feature(上網時長、時段、網購金額),其中分枝“上網時長>1.1h” 很顯然已經過擬合了,這個數據集上A,B也許恰好A每天上網1.09h, B上網1.05小時,但用上網時間是不是>1.1小時來判斷所有人的年齡很顯然是有悖常識的;
??? 相對來說圖2的boosting雖然用了兩棵樹 ,但其實只用了2個feature就搞定了,后一個feature是問答比例,顯然圖2的依據更靠譜。(當然,這里是故意做的數據,所以才能靠譜得如此) Boosting的最大好處在于,每一步的殘差計算其實變相地增大了分錯instance的權重,而已經分對的instance則都趨向于0。這樣后面的樹就能越來越專注那些前面被分錯的instance。就像我們做互聯網,總是先解決60%用戶的需求湊合著,再解決35%用戶的需求,最后才關注那5%人的需求,這樣就能逐漸把產品做好,因為不同類型用戶需求可能完全不同,需要分別獨立分析。
2)Gradient呢?不是“G”BDT么?
?到目前為止,我們的確沒有用到求導的Gradient。在當前版本GBDT描述中,的確沒有用到Gradient,該版本用殘差作為全局最優的絕對方向(lz可能不知道具體步長吧?),并不需要Gradient求解。

那么哪里體現了Gradient呢?其實回到第一棵樹結束時想一想,無論此時的cost?function是什么,是均方差還是均差,只要它以誤差作為衡量標準,殘差向量(-1,?1,?-1,?1)都是它的全局最優方向,這就是Gradient。

lz補充一句,均方差的梯度不就是殘差嗎,這就是梯度!(其它的loss函數就不一定了,但是殘差向量總是全局最優的,梯度一般都是殘差的近似)

?3)這是boosting?Adaboost?
這是boosting,但不是Adaboost。GBDT不是Adaboost Decistion Tree。就像提到決策樹大家會想起C4.5,提到boost多數人也會想到Adaboost。Adaboost是另一種boost方法,它按分類對錯,分配不同的weight,計算cost function時使用這些weight,從而讓“錯分的樣本權重越來越大,使它們更被重視”。Bootstrap也有類似思想,它在每一步迭代時不改變模型本身,也不計算殘差,而是從N個instance訓練集中按一定概率重新抽取N個instance出來(單個instance可以被重復sample),對著這N個新的instance再訓練一輪。由于數據集變了迭代模型訓練結果也不一樣,而一個instance被前面分錯的越厲害,它的概率就被設的越高,這樣就能同樣達到逐步關注被分錯的instance,逐步完善的效果。Adaboost的方法被實踐證明是一種很好的防止過擬合的方法,但至于為什么至今沒從理論上被證明。GBDT也可以在使用殘差的同時引入Bootstrap re-sampling,GBDT多數實現版本中也增加的這個選項,但是否一定使用則有不同看法。re-sampling一個缺點是它的隨機性,即同樣的數據集合訓練兩遍結果是不一樣的,也就是模型不可穩定復現,這對評估是很大挑戰,比如很難說一個模型變好是因為你選用了更好的feature,還是由于這次sample的隨機因素。

GBRT示例2(殘差)

選取回歸樹的分界點建立回歸樹

使用殘差繼續訓練新的回歸樹


GBRT適用范圍

??????? 該版本的GBRT幾乎可用于所有的回歸問題(線性/非線性),相對logistic regression僅能用于線性回歸,GBRT的適用面非常廣。亦可用于二分類問題(設定閾值,大于閾值為正例,反之為負例)。

搜索引擎排序應用RankNet

??????? 搜索排序關注各個doc的順序而不是絕對值,所以需要一個新的cost function,而RankNet基本就是在定義這個cost function,它可以兼容不同的算法(GBDT、神經網絡...)。
??????? 實際的搜索排序使用的是Lambda MART算法,必須指出的是由于這里要使用排序需要的cost function,LambdaMART迭代用的并不是殘差。Lambda在這里充當替代殘差的計算方法,它使用了一種類似Gradient*步長模擬殘差的方法。這里的MART在求解方法上和之前說的殘差略有不同,其區別描述見這里。
???????? 搜索排序也需要訓練集,但多數用人工標注實現,即對每個(query, doc)pair給定一個分值(如1, 2, 3, 4),分值越高越相關,越應該排到前面。RankNet就是基于此制定了一個學習誤差衡量方法,即cost function。RankNet對任意兩個文檔A,B,通過它們的人工標注分差,用sigmoid函數估計兩者順序和逆序的概率P1。然后同理用機器學習到的分差計算概率P2(sigmoid的好處在于它允許機器學習得到的分值是任意實數值,只要它們的分差和標準分的分差一致,P2就趨近于P1)。這時利用P1和P2求的兩者的交叉熵,該交叉熵就是cost function。
??????? 有了cost function,可以求導求Gradient,Gradient即每個文檔得分的一個下降方向組成的N維向量,N為文檔個數(應該說是query-doc pair個數)。這里僅僅是把”求殘差“的邏輯替換為”求梯度“。每個樣本通過Shrinkage累加都會得到一個最終得分,直接按分數從大到小排序就可以了。

[【機器學習】迭代決策樹GBRT(漸進梯度回歸樹)]

皮皮blog



python sklearn實現

分類

sklearn.ensemble.GradientBoostingClassifier(loss='deviance', learning_rate=0.1, n_estimators=100, subsample=1.0, criterion='friedman_mse', min_samples_split=2, min_samples_leaf=1, min_weight_fraction_leaf=0.0, max_depth=3, min_impurity_split=1e-07, init=None, random_state=None, max_features=None, verbose=0, max_leaf_nodes=None, warm_start=False, presort='auto')

超過2個分類時,需要在每次迭代時引入n_classes的回歸樹,因此,總的索引樹為(n_classes * n_estimators)。對于分類數目很多的情況,強烈推薦你使用 RandomForestClassifier 來替代GradientBoostingClassifier

回歸

sklearn.ensemble.GradientBoostingRegressor(loss='ls', learning_rate=0.1, n_estimators=100, subsample=1.0, criterion='friedman_mse', min_samples_split=2, min_samples_leaf=1, min_weight_fraction_leaf=0.0, max_depth=3, min_impurity_split=1e-07, init=None, random_state=None, max_features=None, alpha=0.9, verbose=0, max_leaf_nodes=None, warm_start=False, presort='auto')

參數:

n_estimators : int (default=100) 迭代次數,也就是弱學習器的個數

The number of boosting stages to perform. Gradient boostingis fairly robust to over-fitting so a large number usuallyresults in better performance.

The plot on the left shows the train and test error at each iteration.The train error at each iteration is stored in thetrain_score_ attributeof the gradient boosting model. The test error at each iterations can be obtainedvia the staged_predict method which returns agenerator that yields the predictions at each stage. Plots like these can be usedto determine the optimal number of trees (i.e. n_estimators) by early stopping.


控制樹的size

回歸樹的基礎學習器(base learners)的size,定義了可以被GB模型捕獲的各種交互的level。通常,一棵樹的深度為h,可以捕獲h階的影響因子(interactions)。控制各個回歸樹的size有兩種方法。
1 指定max_depth=h,那么將會長成深度為h的完整二元樹。這樣的樹至多有2^h個葉子,以及2^h-1中間節點。
2 另一種方法:你可以通過指定葉子節點的數目(max_leaf_nodes)來控制樹的size。這種情況下,樹將使用最優搜索(best-first search)的方式生成,并以最高不純度(impurity)的方式展開。如果樹的max_leaf_nodes=k,表示具有k-1個分割節點,可以建模最高(max_leaf_nodes-1)階的interactions。

我們發現,max_leaf_nodes=k 與 max_depth=k-1 進行比較,訓練會更快,只會增大一點點的訓練誤差(training error)。參數max_leaf_nodes對應于gradient boosting中的變量J,與R提供的gbm包的參數interaction.depth相關,為:max_leaf_nodes == interaction.depth + 1。

數學公式Mathematical formulation

GBRT considers additive models of the following form:

where are the basis functions which are usually called weak learners in the context of boosting. Gradient Tree Boosting uses decision trees of fixed size as weak learners. Decision trees have a number of abilities that make them valuable for boosting, namely the ability to handle data of mixed type and the ability to model complex functions.

Similar to other boosting algorithms GBRT builds the additive model in a forward stage wise fashion: 前向分步算法

At each stage the decision tree is chosen to minimize the loss function given the current model and its fit

???

Note: 應該是F_{m-1}(x_i) + h(x)吧,殘差為yi - (F_{m-1}(x_i) + h(x))訓練下一個回歸樹

The initial model is problem specific, for least-squares regression one usually chooses the mean of the target values.

Note:

The initial model can also be specified via the init argument. The passed object has to implement fit and predict.

Gradient Boosting attempts to solve this minimization problem numerically via steepest descent: The steepest descent direction is the negative gradient of the loss function evaluated at the current model which can be calculated for any differentiable loss function:

??? Note: 這里使用的是殘差的近似--梯度來計算殘差的。

Where the step length is chosen using line search:

The algorithms for regression and classification only differ in the concrete loss function used.

loss函數

回歸

  • 最小二乘法Least squares(’ls’):最自然的選擇,因為它的計算很簡單。初始模型通過target的平均值來給出。
  • 最小絕對偏差Least absolute deviation (’lad’):一個健壯的loss函數,用于回歸。初始模型通過target的中值來給出。
  • Huber (‘huber’): Another robust loss function that combinesleast squares and least absolute deviation; use alpha tocontrol the sensitivity with regards to outliers (see [F2001] formore details).
  • Quantile (‘quantile’):A loss function for quantile regression.Use 0 < alpha < 1 to specify the quantile. This loss functioncan be used to create prediction intervals(see Prediction Intervals for Gradient Boosting Regression).

分類

  • Binomial deviance ('deviance'): The negative binomiallog-likelihood loss function for binary classification (providesprobability estimates). The initial model is given by thelog odds-ratio.
  • Multinomial deviance ('deviance'): The negative multinomiallog-likelihood loss function for multi-class classification withn_classes mutually exclusive classes. It providesprobability estimates. The initial model is given by theprior probability of each class. At each iteration n_classesregression trees have to be constructed which makes GBRT ratherinefficient for data sets with a large number of classes.
  • Exponential loss ('exponential'): The same loss functionas AdaBoostClassifier. Less robust to mislabeledexamples than 'deviance'; can only be used for binaryclassification.

正則化

縮減Shrinkage

?Shrinkage(縮減)的思想認為,每次走一小步逐漸逼近結果的效果,要比每次邁一大步很快逼近結果的方式更容易避免過擬合。即它不完全信任每一個棵殘差樹,它認為每棵樹只學到了真理的一小部分,累加的時候只累加一小部分,通過多學幾棵樹彌補不足。用方程來看更清晰,即
沒用Shrinkage時:(yi表示第i棵樹上y的預測值, y(1~i)表示前i棵樹y的綜合預測值)
y(i+1) = 殘差(y1~yi), 其中: 殘差(y1~yi) =? y真實值 - y(1 ~ i)
y(1 ~ i) = SUM(y1, ..., yi)

Shrinkage不改變第一個方程,只把第二個方程改為:
y(1 ~ i) = y(1 ~ i-1) + step * yi
即Shrinkage仍然以殘差作為學習目標,但對于殘差學習出來的結果,只累加一小部分(step*殘差)逐步逼近目標,step一般都比較小,如0.01~0.001(注意該step非gradient的step),導致各個樹的殘差是漸變的而不是陡變的。直覺上這也很好理解,不像直接用殘差一步修復誤差,而是只修復一點點,其實就是把大步切成了很多小步。本質上,Shrinkage為每棵樹設置了一個weight,累加時要乘以這個weight,但和Gradient并沒有關系。這個weight就是step。就像Adaboost一樣,Shrinkage能減少過擬合發生也是經驗證明的,目前還沒有看到從理論的證明

[f2001]提出了一種簡單的正則化策略,它通過一個因子v將每個弱學習器的貢獻進行歸一化(為什么學習率v能將每個弱學習器的貢獻進行歸一化?)。

參數v也被稱為學習率(learning rate),因為它可以對梯度下降的步長進行調整;它可以通過learning_rate參數進行設定。

參數learning_rate會強烈影響到參數n_estimators(即弱學習器個數)。learning_rate的值越小,就需要越多的弱學習器數來維持一個恒定的訓練誤差(training error)常量。經驗上,推薦小一點的learning_rate會對測試誤差(test error)更好。[HTF2009]推薦將learning_rate設置為一個小的常數(e.g. learning_rate <= 0.1),并通過early stopping機制來選擇n_estimators。我們可以在[R2007]中看到更多關于learning_rate與n_estimators的關系。

子抽樣Subsampling

[F1999]提出了隨機梯度boosting,它將bagging(boostrap averaging)與GradientBoost相結合。在每次迭代時,基礎分類器(base classifer)都在訓練數據的一個子抽樣集中進行訓練。子抽樣以放回抽樣。subsample的典型值為:0.5。

下圖展示了shrinkage的效果,并在模型的擬合優度(Goodness of Fit)上進行子抽樣(subsampling)。我們可以很清楚看到:shrinkage的效果比no-shrinkage的要好。

減小variance策略1:使用shrinkage的子抽樣可以進一步提升模型準確率。而不帶shinkage的子抽樣效果差些。


減小variance策略2:對features進行子抽樣(類比于RandomForestClassifier中的隨機split)。子抽樣features的數目可以通過max_features參數進行控制。注意:使用小的max_features值可以極大地降低運行時長。

out-of-bag估計

隨機梯度boosting允許計算測試偏差(test deviance)的out-of-bag估計,通過計算沒有落在bootstrap樣本中的其它樣本的偏差改進(i.e. out-of-bag示例)。該提升存在屬性oob_improvement_中。oob_improvement_[i]表示在添加第i步到當前預測中時,OOB樣本中的loss的提升。OOB估計可以被用于模型選擇,例如:決定最優的迭代數。OOB估計通常很少用,我們推薦你使用交叉驗證(cross-validation),除非當cross-validation十分耗時的時候。

示例:[Gradient Boosting regularization; Gradient Boosting Out-of-Bag estimates; OOB Errors for Random Forests]

內省Interpretation

單顆決策樹可以通過內省進行可視化樹結構。然而,GradientBoost模型由成百的回歸樹組成,不能輕易地通過對各棵決策樹進行內省來進行可視化。幸運的是,已經提出了許多技術來歸納和內省GradientBoost模型。

feature重要程度

通常,features對于target的結果預期的貢獻不是均等的;在許多情況下,大多數features都是不相關的。當內省一個模型時,第一個問題通常是:在預測我們的target時,哪些features對結果預測來說是重要的。

單棵決策樹天生就可以通過選擇合適的split節點進行特征選擇(feature selection)。該信息可以用于計算每個feature的重要性;基本思想是:如果一個feature經常用在樹的split節點上,那么它就越重要。這個重要性的概率可以延伸到決策樹家族ensembles方法上,通過對每棵樹的feature求簡單平均即可。

GradientBoosting模型的重要性分值,可以通過feature_importances_屬性來訪問:

>>> from sklearn.datasets import make_hastie_10_2 >>> from sklearn.ensemble import GradientBoostingClassifier>>> X, y = make_hastie_10_2(random_state=0) >>> clf = GradientBoostingClassifier(n_estimators=100, learning_rate=1.0, ... max_depth=1, random_state=0).fit(X, y) >>> clf.feature_importances_ array([ 0.11, 0.1 , 0.11, ...

示例:Gradient Boosting regression

局部依賴

局部依賴圖(Partial dependence plots :PDP)展示了target結果與一些目標特征(target feature)之間的依賴;邊緣化(marginalizing)所有其它特征(’complement’ features)。另外,我們可以內省這兩者的局部依賴性。

由于人的認知的有限,目標特征的size必須設置的小些(通常:1或2),目標特征可以在最重要的特征當中進行選擇。

下圖展示了關于California居住情況的、4個one-way和一個two-way的局部依賴圖示例:


one-way的PDP圖告訴我們,target結果與target特征之間的相互關系(e.g. 線性/非線性)。左上圖展示了中等收入(median income)在房價中位數(median house price)上的分布;我們可以看到它們間存在線性關系。???? 帶有兩個target特征的PDP,展示了和兩個特征的相關關系。例如:上圖最后一張小圖中,兩個變量的PDP展示了房價中位數(median house price)與房齡(house age)和平均家庭成員數(avg. occupants)間的關系。我們可以看到兩個特征間的關系:對于AveOccup>2的,房價與房齡(HouseAge)幾乎完全獨立。而AveOccup<2的,房價則強烈依賴年齡。

partial_dependence模塊

提供了一個很方便的函數:plot_partial_dependence 來創建one-way以及two-way的局部依賴圖。下例,我們展示了如何創建一個PDP:兩個two-way的PDP,feature為0和1,以及一個在這兩個feature之間的two-way的PDP:

>>> from sklearn.datasets import make_hastie_10_2 >>> from sklearn.ensemble import GradientBoostingClassifier >>> from sklearn.ensemble.partial_dependence import plot_partial_dependence>>> X, y = make_hastie_10_2(random_state=0) >>> clf = GradientBoostingClassifier(n_estimators=100, learning_rate=1.0, max_depth=1, random_state=0).fit(X, y) >>> features = [0, 1, (0, 1)] >>> fig, axs = plot_partial_dependence(clf, X, features)

對于多分類的模塊,我們需要設置類的label,通過label參數來創建PDP:

>>> from sklearn.datasets import load_iris >>> iris = load_iris() >>> mc_clf = GradientBoostingClassifier(n_estimators=10, max_depth=1).fit(iris.data, iris.target) >>> features = [3, 2, (3, 2)] >>> fig, axs = plot_partial_dependence(mc_clf, X, features, label=0)

如果你需要一個局部依賴函數的原始值,而非你使用partial_dependence函數繪制的圖:

>>> from sklearn.ensemble.partial_dependence import partial_dependence>>> pdp, axes = partial_dependence(clf, [0], X=X) >>> pdp array([[ 2.46643157, 2.46643157, ... >>> axes [array([-1.62497054, -1.59201391, ...

該函數需要兩個參數:

  • grid: 它控制著要評估的PDP的target特征的值
  • X: 它提供了一個很方便的模式來從訓練數據集上自動創建grid。

返回值axis:

-如果給定了X,那么通過這個函數返回的axes給出了每個target特征的axis.

對于在grid上的target特征的每個值,PDP函數需要邊緣化樹的不重要特征的預測。在決策樹中,這個函數可以用來評估有效性,不需要訓練集數據。對于每個grid點,會執行一棵加權樹的遍歷:如果一個split節點涉及到’target’特征,那么接下去的左、右分枝,每個分枝都會通過根據進入該分枝的訓練樣本的fraction進行加權。最終,通過訪問所有葉子的平均加權得到局部依賴。對于樹的ensemble來說,每棵樹的結果都會被平均。

注意點:

  • 帶有loss=’deviance’的分類,它的target結果為logit(p)
  • 初始化模型后,target結果的預測越精確;PDP圖不會包含在init模型中

示例:Partial Dependence Plots

from: http://blog.csdn.net/pipisorry/article/details/60776803

ref: [Sklearn: Gradient Tree Boosting]*

[sklearn中的gbt(gbdt/gbrt)]*

[GBDT(MART) 迭代決策樹入門教程 | 簡介 ]*

[統計學習方法 8.4提升樹]

[Ensemble methods]

[Boosting?Decision?Tree入門教程 http://www.schonlau.net/publication/05stata_boosting.pdf]

[LambdaMART用于搜索排序入門教程?http://research.microsoft.com/pubs/132652/MSR-TR-2010-82.pdf]


總結

以上是生活随笔為你收集整理的集成方法:渐进梯度回归树GBRT(迭代决策树)的全部內容,希望文章能夠幫你解決所遇到的問題。

如果覺得生活随笔網站內容還不錯,歡迎將生活随笔推薦給好友。

91成年人网站 | 天堂av在线中文在线 | 人人dvd| 免费午夜av | 色噜噜狠狠狠狠色综合久不 | 精品v亚洲v欧美v高清v | 天天天色综合a | 九九视频在线播放 | 日本黄色免费播放 | www.97视频| 久久不卡视频 | 久久国产精品99久久久久 | 国产96精品 | 亚洲高清视频在线观看免费 | 天天拍天天干 | 国产精品视频线看 | 又粗又长又大又爽又黄少妇毛片 | 少妇av网| 香蕉视频一级 | 亚洲国产成人在线观看 | 日本久热 | www亚洲一区 | 国产免费影院 | 日韩中文久久 | 久草网在线视频 | av中文国产 | 免费在线一区二区三区 | 精品麻豆入口免费 | 国产成人精品综合久久久 | 色成人亚洲网 | 亚洲jizzjizz日本少妇 | 国产91精品看黄网站 | 久久久精品网 | 久久国产精品久久国产精品 | 久久久久久久久毛片 | 色五婷婷| 成人黄色在线电影 | 婷婷99| 欧美日韩亚洲在线观看 | 欧美日韩破处 | 成人午夜电影在线观看 | 久久99在线视频 | 亚洲日本在线一区 | 久久久噜噜噜久久久 | 日本大片免费观看在线 | 手机看片中文字幕 | 这里有精品在线视频 | 欧美一区二区在线刺激视频 | 东方av免费在线观看 | 91福利视频一区 | 国产精品视频久久 | 色97在线 | 在线观看资源 | 国产小视频在线看 | 亚洲国产精品一区二区久久,亚洲午夜 | 全久久久久久久久久久电影 | 99视频在线观看一区三区 | 久久国产成人午夜av影院宅 | www免费看 | 国产视频欧美视频 | av片在线观看 | 久久综合五月天婷婷伊人 | 国产原厂视频在线观看 | 天天超碰 | 国产精品久久久久久久久免费看 | 亚洲精品视频在线播放 | 涩五月婷婷| av一级久久 | 亚洲第一成网站 | 欧美日韩裸体免费视频 | 天天草av| 色久av| 国产精品99久久久精品 | 91精品在线视频观看 | 黄色天堂在线观看 | 最近中文字幕大全 | 在线电影中文字幕 | 色播99 | 婷婷精品 | www.黄色片网站 | 日韩免费在线视频观看 | 五月婷婷在线播放 | 天天射天天拍 | 日韩激情视频在线观看 | 亚洲人人av | 久久免费视频8 | 国产破处在线视频 | 91精品电影| 国产人在线成免费视频 | 精品视频中文字幕 | 91片黄在线观看动漫 | 国产视频在 | 欧美日韩一区二区三区不卡 | 插插插色综合 | 日韩在线播放av | 日韩在线观看电影 | 久久看免费视频 | 日本中文字幕在线免费观看 | 久久久久久国产精品999 | 五月综合在线观看 | 国产精品99久久久久久久久 | 麻豆国产视频下载 | 国产精品日韩精品 | 久久久国产精品麻豆 | 成人免费中文字幕 | 国产在线探花 | 久久精品综合一区 | 国模视频一区二区三区 | 久草在线一免费新视频 | 久久99深爱久久99精品 | 就要干b| 五月的婷婷 | 日韩精品一区二区三区在线视频 | 一级性视频 | 欧美一区二区日韩一区二区 | 成 人 黄 色 视频播放1 | 国产精品久久久久久久av电影 | 91福利试看 | 中文一区在线 | 欧美日韩视频精品 | 日韩成人免费在线 | 日韩精品91偷拍在线观看 | 亚洲电影一区二区 | 超碰97人人干 | 久久99九九99精品 | 亚洲成a人片77777潘金莲 | 一本一本久久aa综合精品 | 国模视频一区二区 | 97视频免费播放 | 国产香蕉久久精品综合网 | 日色在线视频 | 97视频免费播放 | 久久中文字幕视频 | 2019天天干夜夜操 | 中文字幕乱码在线播放 | 中文字幕日韩国产 | 欧美大片www | 亚洲开心色 | 久久久久久美女 | 手机版av在线 | 中文字幕国产精品一区二区 | 婷婷精品视频 | 国产破处在线播放 | 精品国产一区二区三区噜噜噜 | 色吊丝在线永久观看最新版本 | 免费在线观看日韩欧美 | 免费视频一二三区 | 97麻豆视频 | 国产精品一区二区三区视频免费 | 午夜999| 天天草天天插 | 国产精品一区二区无线 | 狠狠干,狠狠操 | 在线看av的网址 | 人人爽人人爽人人片 | 久久夜色精品国产欧美乱极品 | 五月婷婷激情综合 | 日韩欧美在线视频一区二区三区 | 久久精精品视频 | 国产一区在线免费观看视频 | 久久99热这里只有精品 | 麻豆视频免费观看 | 人人爱爱人人 | 69av在线视频 | 91av视频播放 | 久久综合射 | 17videosex性欧美 | 午夜精品久久久久久99热明星 | 免费a视频在线 | 在线观看国产中文字幕 | 亚洲天堂va | 日本 在线 视频 中文 有码 | 久久精久久精 | 亚洲精品视频在线免费播放 | 久久精品国亚洲 | 久久这里有精品 | 五月综合激情婷婷 | 亚洲国产免费看 | av中文字幕在线免费观看 | 亚洲综合网站在线观看 | 久久亚洲国产精品 | 精品视频久久久 | 在线观看视频精品 | 国产一区二区久久久久 | 欧美激情精品久久久 | 久久高清视频免费 | 婷婷在线播放 | av一本久道久久波多野结衣 | 精品久久久久久久久久久久久久久久 | 日日爱av | 国产黄色片久久久 | 亚洲成人国产精品 | 免费性网站 | 欧美人人 | 国产高清 不卡 | 亚洲aaa级 | 久草网站| 亚洲闷骚少妇在线观看网站 | 天天天操天天天干 | 国产高清av在线播放 | 日韩最新中文字幕 | 久久电影日韩 | 欧美日本一二三 | 一级片免费观看视频 | 中文字幕影片免费在线观看 | 中文在线亚洲 | 国产精品爽爽久久久久久蜜臀 | 伊人久久影视 | 伊人中文字幕在线 | 国产精品理论片在线观看 | 久久福利精品 | 日韩在线一区二区免费 | 久久久久久久久久久免费av | 激情综合五月婷婷 | 欧美激情视频一区二区三区 | 久久99久久99精品免观看粉嫩 | 成人一区二区在线 | 亚洲精品乱码久久久久久蜜桃91 | 国产精品在线看 | av福利第一导航 | 亚洲最大激情中文字幕 | 91精品成人久久 | 欧美超碰在线 | av888.com| 国产免费久久av | 亚洲视频在线观看 | 国产成人黄色 | 国产在线va | 综合久久精品 | 婷五月激情 | 日本黄色免费电影网站 | 亚洲成年人在线播放 | 国产福利一区在线观看 | 日本中文字幕在线看 | 日韩成人看片 | 精品亚洲成a人在线观看 | 黄色福利视频网站 | 成人三级av | 狠狠躁夜夜躁人人爽超碰97香蕉 | 国产在线视频资源 | 69xx视频| 99re国产视频| 欧美一级免费 | 西西www4444大胆视频 | www久久久久 | 国内精品久久久久久久久久 | 午夜美女wwww | 日日夜夜亚洲 | 日本黄网站 | 99精品视频在线看 | 欧美性成人| 国产成人精品在线观看 | 黄色影院在线免费观看 | 99亚洲精品视频 | 国产精品入口麻豆www | 国产一区欧美在线 | 99视频在线免费观看 | www.99热精品 | 九九热精品视频在线观看 | 97国产大学生情侣白嫩酒店 | 国产最新视频在线 | 亚洲a在线观看 | 国产午夜精品在线 | 在线观看中文字幕第一页 | 色综合天天综合在线视频 | 涩涩色亚洲一区 | 日韩av免费一区二区 | 麻豆免费精品视频 | 亚洲精品99久久久久中文字幕 | 欧美日韩性 | 日韩三区在线 | 色综合天天色综合 | 久草在线视频在线观看 | 青青河边草免费视频 | 国产aa免费视频 | 亚洲另类视频在线 | 黄色国产高清 | 国产69精品久久久久久 | 天天爱天天操天天射 | 涩涩网站在线 | 99精品国自产在线 | 中文字幕国产一区 | 日韩欧美成人网 | 久免费 | 日韩欧美成人网 | 免费日韩一区 | 久久久一本精品99久久精品 | 免费精品视频在线观看 | 久久久久五月天 | 天天爱天天插 | 一区二区三区在线视频观看58 | 精品国内自产拍在线观看视频 | 奇米导航| 国产一区在线观看免费 | 免费日韩三级 | 99视频这里只有 | 久综合网| 激情综合色播五月 | 激情综合网五月 | 黄色片毛片 | 2023天天干 | 国产精品视频在线看 | 免费看国产视频 | 天天在线视频色 | 亚洲精品在线观 | 国产在线p | a午夜电影 | 久久久久免费观看 | 久久综合之合合综合久久 | 射射色 | 欧美日韩成人 | h网站免费在线观看 | 5月丁香婷婷综合 | 狠狠干在线 | 亚洲va韩国va欧美va精四季 | 免费三级大片 | 香蕉视频在线网站 | 精品久久亚洲 | 久草香蕉在线视频 | 午夜av在线播放 | 久久黄色影视 | 福利一区视频 | 欧美极品少妇xxxxⅹ欧美极品少妇xxxx亚洲精品 | 精品国产一区二区三区av性色 | 国产精彩在线视频 | 四虎在线免费观看视频 | 日韩激情片在线观看 | 日韩高清久久 | 午夜精品久久久久久99热明星 | 中文字幕电影在线 | 欧美日韩精品影院 | 久久久久久久久久久影视 | 久久久婷 | 免费看成年人 | 国产青草视频在线观看 | 99久久婷婷国产 | 色偷偷88888欧美精品久久 | 91久久精品一区二区三区 | 国产一级性生活 | 国产高清中文字幕 | 日韩videos | 五月婷婷一区二区三区 | 日韩在线第一 | 久久免费公开视频 | 区一区二区三区中文字幕 | 天天爱天天干天天爽 | 久草视频在线免费 | 婷婷午夜天 | 国产精品1区2区在线观看 | 亚洲一区二区视频在线 | 日本久久不卡视频 | 免费福利在线播放 | 国产精品成人av电影 | 国产一区在线不卡 | 国产视频一区二区在线观看 | 亚洲国产中文在线 | 久草在线资源免费 | 中文字幕美女免费在线 | 天天操天天操天天操天天操天天操 | 少妇搡bbbb搡bbb搡aa | 欧美日韩久久不卡 | 中文字幕av在线播放 | 日韩中文在线观看 | 国产小视频在线免费观看 | 婷婷六月天综合 | av免费网站 | 久久成人资源 | 久久一区二区免费视频 | 91网站在线视频 | 日韩字幕在线观看 | 久久av电影| 免费精品久久久 | 国产二级视频 | 日日夜夜免费精品视频 | 国产成人福利在线观看 | 婷婷深爱激情 | 成人久久精品视频 | 亚州精品成人 | 亚洲欧美成人在线 | 一级黄色片在线 | 欧女人精69xxxxxx | 五月婷婷丁香在线观看 | 中文字幕在线观看第二页 | 亚洲国产一区二区精品专区 | www夜夜操| 久草在线最新免费 | 91久久国产露脸精品国产闺蜜 | 国产在线视频导航 | 中文字幕 国产视频 | 日韩av成人在线观看 | 99re8这里有精品热视频免费 | 夜夜躁狠狠躁日日躁视频黑人 | 91免费网址| 久久毛片网站 | 在线观看免费av片 | 午夜视频免费播放 | 天天操操操操操操 | 91九色视频国产 | 国产精品免费观看在线 | 亚洲视频久久久久 | 欧美精品v国产精品 | 精品国产一区二区三区四 | 99在线热播精品免费99热 | 国产人成免费视频 | 久久久久欧美精品999 | 美女久久精品 | 嫩草91影院 | 国产中文视频 | 日韩久久精品一区 | 97精品国产91久久久久久 | 日韩久久午夜一级啪啪 | 国产高清精品在线 | 中文字幕在线久一本久 | 欧美另类巨大 | 亚洲精品视频观看 | 精品一区二区三区四区在线 | 日韩免费在线观看网站 | 天天色.com | 九九久 | 天天综合网久久综合网 | 探花视频在线观看免费 | 国产成人精品一区二区在线观看 | 色老板在线视频 | 亚洲 综合 国产 精品 | 日韩69av| 久久成人免费电影 | 三级黄色免费 | 成人免费观看大片 | 三级黄在线 | 日韩一级网站 | 久久久久久久久免费 | 99久久精品免费看国产麻豆 | 国产午夜精品在线 | 国产专区视频在线观看 | 成人国产精品av | 亚洲激情精品 | av综合 日韩| 黄毛片在线观看 | 久久99网站 | 日韩免费视频一区二区 | 精品国产成人在线 | 日韩大片在线 | 国产原创在线 | 97色涩| 日本h视频在线观看 | 国产亚洲人成网站在线观看 | 久久国产亚洲视频 | 久久精品国产第一区二区三区 | 超碰资源在线 | 四虎影视8848dvd | 欧美色图东方 | av在线看网站 | 国产aa精品| 天天爽夜夜爽人人爽曰av | 天天做日日做天天爽视频免费 | 久久手机免费观看 | 日韩精品中文字幕在线不卡尤物 | 91免费版成人 | 黄色亚洲免费 | 黄色片网站 | 国产亚洲精品av | 欧美激情片在线观看 | 日韩在线观看一区二区三区 | 天天摸天天舔天天操 | 天天摸天天干天天操天天射 | 国产视频资源在线观看 | 国产亚洲精品久久久久秋 | 久久免费视频2 | 国产视频首页 | 在线观看国产区 | 在线观看免费观看在线91 | 在线视频免费观看 | 国产福利在线免费观看 | 国产91在线播放 | 日韩有码第一页 | 国产三级av在线 | a级免费观看| 欧美aa在线观看 | av理论电影 | 97国产大学生情侣酒店的特点 | 久久久久久美女 | a黄色片| 在线精品观看国产 | 丰满少妇在线观看 | 亚洲男模gay裸体gay | 亚洲 欧洲 国产 精品 | 欧美久久精品 | 一区二区三区四区五区在线 | 亚洲国内在线 | av免费看电影 | 免费在线观看不卡av | 亚洲精品66| av中文字幕在线免费观看 | 欧美日韩成人一区 | av九九| 人人干人人干人人干 | 一区二区伦理电影 | 天天色棕合合合合合合 | 国产免费黄视频在线观看 | 黄色看片 | 国产手机av在线 | 午夜少妇av| 99久久国产免费看 | 欧美极品在线播放 | 国产福利一区二区三区视频 | 亚洲精品国精品久久99热 | 日韩精品最新在线观看 | 狠狠色狠狠综合久久 | 天天插日日插 | 国内偷拍精品视频 | 日韩一区二区三区不卡 | 色综合天天色综合 | 日本少妇久久久 | 国产精品美女999 | 中文字幕在线观看免费 | 最近中文字幕mv免费高清在线 | 欧美va天堂在线电影 | 成人免费在线播放视频 | 又黄又刺激视频 | 激情久久一区二区三区 | 一区二区三区精品在线视频 | 国产香蕉视频在线播放 | 亚洲 中文 欧美 日韩vr 在线 | 97国产大学生情侣白嫩酒店 | 久章草在线 | 国产精品久久久久永久免费看 | 久久久久综合视频 | 国产一二三四在线视频 | 91精品国产高清自在线观看 | 久久精品欧美一区 | 久久久久久久久久久精 | 成人午夜性影院 | 久久综合久久伊人 | 精品国产电影一区 | 日韩av一区二区三区四区 | 毛片网站观看 | 91在线视频 | 很黄很黄的网站免费的 | 欧美成人影音 | 六月丁香激情综合 | 亚洲三级视频 | 亚洲国产成人精品在线 | 99精品国产一区二区三区不卡 | 黄色1级大片 | 黄色网址在线播放 | 夜夜骑日日操 | 在线视频观看亚洲 | 国产成人精品一区二区三区网站观看 | 国产精品久久久久久久久毛片 | 91久草视频| 91看国产| 国产成人一区二区在线观看 | 国产99中文字幕 | 在线成人性视频 | 日韩精品免费一区 | 国产成人av电影在线 | 国产一区二区免费在线观看 | 精品99久久| 色婷婷啪啪免费在线电影观看 | 在线成人一区二区 | 免费亚洲视频在线观看 | 天天玩天天干 | 国产一区二三区好的 | 欧美日韩aa | 欧美一级欧美一级 | 欧美aⅴ在线观看 | 国产视频18| 九九免费在线视频 | 在线免费精品视频 | 国产护士av | 黄色成人av | 免费一级片视频 | 色香蕉网 | 成人av在线资源 | 亚洲人久久久 | 西西www4444大胆在线 | 久久激情影院 | 日本最新高清不卡中文字幕 | 国产精品免费观看国产网曝瓜 | 久久天堂精品视频 | 00av视频| 999精品 | 久久成人午夜 | 99热国产在线 | 成人在线一区二区三区 | 日韩精品在线免费观看 | 国产精品成人一区二区三区 | 国产精品日韩久久久久 | 久久婷婷一区二区三区 | 国产看片免费 | 手机在线中文字幕 | 成人在线播放av | 中文字幕免费不卡视频 | 久久精品美女视频网站 | 国产免费作爱视频 | 精品国产诱惑 | 久久精品理论 | 人人爽人人插 | 日韩av电影中文字幕在线观看 | 国产福利一区二区三区在线观看 | 超碰人人草人人 | 精品美女视频 | 在线有码中文 | 亚洲国产精品一区二区久久,亚洲午夜 | 久久夜av | 啪啪免费观看网站 | 免费观看成人网 | 911免费视频| 日韩在线欧美在线 | 超碰在线人人 | 青青河边草观看完整版高清 | 国产精品久久久久一区二区三区共 | 久久精品99视频 | 久久爱www. | 日韩一区二区久久 | 91精品久久久久久 | 国产专区在线看 | 欧美一级片免费 | 婷婷午夜| 亚洲精品在线观看视频 | 国产一区二区三区免费视频 | 久久国产精品色av免费看 | 玖玖视频免费在线 | 精品在线99 | 免费看的黄网站 | 日韩中文久久 | 婷婷在线五月 | 久久久人人爽 | 一区免费视频 | 天天射天天操天天干 | 超碰成人免费电影 | 国产精品毛片一区视频 | 日产乱码一二三区别免费 | 亚洲最新视频在线播放 | 久久理论影院 | 久久国产精品一区二区三区四区 | 97色综合| 国产女v资源在线观看 | 成人av在线观 | 在线视频 国产 日韩 | 九九久久国产精品 | 91成人精品国产刺激国语对白 | 午夜私人影院久久久久 | 中文字幕一区二区在线观看 | 黄色大全免费网站 | 99久久精品免费看国产四区 | av电影中文字幕在线观看 | 婷婷五天天在线视频 | 久久久久久久久久免费视频 | 精品av在线播放 | 国产一二区视频 | 亚洲成人黄 | 久久av影视 | 久久久久久久久免费 | 国产免费叼嘿网站免费 | 一区二区三区高清不卡 | 国产伦精品一区二区三区在线 | 日日夜夜免费精品 | 日韩亚洲国产中文字幕 | 国产精品美女久久久久久免费 | 久久免费国产电影 | 欧美在线视频一区二区三区 | 国产精品美女在线观看 | 中文字幕国产 | 中文在线8资源库 | 国产一区二区不卡视频 | 亚洲精品小视频 | 在线观看中文av | 国产精品美女毛片真酒店 | 国产亚洲成人网 | 国产精品视频内 | 中文字幕黄色av | 欧美一级大片在线观看 | 国产福利精品在线观看 | 国产日韩欧美在线观看 | 91视频这里只有精品 | 园产精品久久久久久久7电影 | 国产精品密入口果冻 | 久草在线视频中文 | av电影中文字幕在线观看 | 91免费高清视频 | 日韩在线观看网站 | 中文字幕中文字幕在线一区 | 91精品办公室少妇高潮对白 | 天堂黄色片 | 日韩免费一区二区三区 | 青青河边草观看完整版高清 | 亚洲老妇xxxxxx | 久久这里有精品 | 一区二区三区四区五区在线 | 在线免费av网 | 四虎欧美 | 日日夜夜天天久久 | 久草精品在线观看 | 婷婷在线色 | 午夜久久网站 | 中文字幕一区二区三区精华液 | 麻豆传媒在线免费看 | 丝袜美腿在线视频 | 亚洲激精日韩激精欧美精品 | 天天天天天干 | 天天草天天干 | 又污又黄网站 | 亚洲精品白浆高清久久久久久 | 午夜视频在线观看一区 | 成人欧美一区二区三区在线观看 | 亚洲精品啊啊啊 | 91在线视频观看免费 | 精品久久影院 | 久久人人爽人人人人片 | 日韩黄色大片在线观看 | 亚洲作爱| 久草国产在线观看 | 国产精品视频在线观看 | 国产亚洲精品精品精品 | 99自拍视频在线观看 | 亚洲自拍偷拍色图 | 国产精品久久久久久久久久久久 | 国产精品视频免费看 | 黄色成年片 | 日日夜夜噜噜噜 | 中文字幕第一页在线vr | 草久在线视频 | 色在线高清 | 又黄又爽的免费高潮视频 | 欧美地下肉体性派对 | 国内精品久久久久国产 | 天天玩夜夜操 | 麻豆影视网站 | 精品视频成人 | 精品亚洲视频在线 | 黄色三级网站 | 亚洲黑丝少妇 | 97在线影视 | 日韩精品首页 | 激情开心站 | 丁香婷婷久久 | 久久精品专区 | 国产精品热| 在线国产视频 | 日韩av黄 | 国产在线日本 | www.五月天婷婷 | 天天色天天综合网 | 久久精品国产第一区二区三区 | 夜夜高潮夜夜爽国产伦精品 | 激情欧美一区二区三区 | 99久久久国产精品美女 | 日韩色爱 | japanesexxxhd奶水| 四虎影视成人永久免费观看亚洲欧美 | 精产嫩模国品一二三区 | 国产99自拍 | 九九久久影院 | www.人人草| 少妇自拍av | 日韩特级片 | 91精品国产乱码久久桃 | 免费日韩一区二区三区 | 免费看十八岁美女 | 国产精品video爽爽爽爽 | 九九精品视频在线 | 久久精品久久精品久久精品 | 一本一道波多野毛片中文在线 | 中文字幕一二 | 久久黄页| 91av在线免费 | 国产精品久久久久久久久久久久午夜片 | 国产精品v a免费视频 | 国语麻豆 | 国产精品乱码一区二三区 | 国产91粉嫩白浆在线观看 | 久久国产区 | 在线欧美小视频 | 国产精品成人av电影 | 亚洲精品自拍视频在线观看 | 国产麻豆精品免费视频 | 久久综合久久八八 | 日韩欧美视频 | 亚洲一区二区视频在线播放 | 狠狠狠色丁香婷婷综合激情 | 亚洲美女精品视频 | 五月激情综合婷婷 | 91在线视频一区 | 在线精品观看国产 | 日韩aa视频 | 日韩xxxx视频 | 中文国产字幕在线观看 | 91资源在线视频 | 亚洲激情一区二区三区 | 欧美夫妻性生活电影 | 亚洲美女免费视频 | 日韩精品一区二区免费 | 91看片淫黄大片一级在线观看 | 丁香激情综合 | 天天操天天操天天操天天操天天操天天操 | 五月天久久综合 | www久久久久 | 国产成人精品日本亚洲999 | 国产99久久精品一区二区300 | 69av视频在线| 免费看成人| 欧美色伊人 | 婷婷激情站 | 久久这里有 | 伊人亚洲综合网 | 97精品国产97久久久久久久久久久久 | 91av亚洲 | 精品在线观 | 97日日碰人人模人人澡分享吧 | 免费在线观看av网站 | 黄色avwww | 国产一级淫片免费看 | 69热国产视频 | 精品一区二区在线免费观看 | 亚洲天堂网视频 | 麻豆视频在线免费 | 国产成人a亚洲精品 | 在线免费中文字幕 | 99久久婷婷国产精品综合 | 欧美激情综合网 | 国产精品99久久久久久有的能看 | 亚洲精选国产 | 国产亚洲一区 | 欧美成人69av | 欧美最猛性xxxxx免费 | 国内精品久久久久影院优 | 精品国产伦一区二区三区观看方式 | 在线观看视频日韩 | 亚洲成人动漫在线观看 | 亚洲欧美日韩一区二区三区在线观看 | 久久五月婷婷丁香社区 | 天天玩天天干天天操 | av在线免费网 | 国产成在线观看免费视频 | www.天天成人国产电影 | 亚洲 欧美日韩 国产 中文 | 欧美日韩国产在线 | www.天天草 | www.五月婷婷.com | 国产在线不卡视频 | 中文字幕亚洲精品在线观看 | 久草在线视频首页 | 国产不卡在线 | 在线观看日本高清mv视频 | 国产成人在线综合 | 精品久久中文 | 国产成人一区二区三区久久精品 | 国产精品视频全国免费观看 | 黄色大片日本免费大片 | 97国产电影 | 亚洲精品午夜久久久 | 激情久久小说 | 日韩av电影一区 | 国产精品久久久久久久久久妇女 | 亚洲丁香久久久 | 日韩欧美精品在线 | 成人av在线一区二区 | 四虎国产精品免费观看视频优播 | 日韩激情第一页 | 一级精品视频在线观看宜春院 | 色综合久久久久综合99 | 麻豆视频www | 久久99精品一区二区三区三区 | av高清影院 | 婷婷丁香激情综合 | 亚洲va在线va天堂 | 91麻豆精品国产自产在线游戏 | 国产视频丨精品|在线观看 国产精品久久久久久久久久久久午夜 | 日韩有码第一页 | 97网在线观看| 天天射天天射天天 | 四虎永久网站 | 国产亚洲精品久久久久久大师 | 国产免费亚洲高清 | 成人午夜黄色影院 | 亚洲国内精品在线 | 久久看片网站 | 国产又粗又猛又爽又黄的视频先 | 久久久精品国产一区二区三区 | 久久国产视屏 | 欧洲av不卡 | www麻豆视频| 国产中文字幕av | 精品国产黄色片 | 国产成人黄色片 | 久热av在线 | 香蕉精品在线观看 | 精品一区 精品二区 | 中文字幕在线观看免费高清完整版 | 九九九在线观看视频 | 精品视频在线免费观看 | 亚洲成人av在线电影 | 免费视频在线观看网站 | 麻豆视频免费入口 | 精品国产区在线 | 久久影院一区 | 久久久久亚洲精品中文字幕 | 久久久久久久免费观看 | 91av久久| 色视频网站在线观看一=区 a视频免费在线观看 | 麻豆视频免费看 | 美女搞黄国产视频网站 | 91入口在线观看 | 外国av网 | 麻豆影视在线观看 | 美女国产网站 | 黄色小说视频在线 | 在线中文字幕播放 | 狠狠操狠狠操 | 久久草网站 | 国产成年人av | 欧美9999 | 天天综合成人网 | 深夜男人影院 | www.色综合.com | 四虎国产精 | 国产小视频在线 | 天堂资源在线观看视频 | 国产日韩精品在线 | 蜜臀av性久久久久av蜜臀妖精 | 日日日干 | 国产女人40精品一区毛片视频 | 在线中文字幕视频 | 亚洲视频axxx | 久久久.com| 久草免费在线观看视频 | 国产精品剧情 | 国产精品大片免费观看 | 天天摸天天干天天操天天射 | 男女视频久久久 | 色综合久久88色综合天天6 | 日韩av影视在线观看 | 99r在线视频 | 天天干夜夜想 | 视频三区在线 | 亚洲专区欧美 | 亚洲精品xxx| 涩涩资源网 | 激情欧美在线观看 | 成人在线观看影院 | 国产色拍拍拍拍在线精品 | 一级性av| 99精品视频在线免费观看 | 久久久网站 | 国产免费三级在线观看 | 久久午夜精品影院一区 | 欧美精品免费在线观看 | 在线播放视频一区 | 婷婷免费在线视频 | 免费三级网 | aav在线 | 欧美色插| 亚洲国产大片 | 午夜精品久久久久久久99婷婷 | 麻豆国产电影 | 国产又粗又长又硬免费视频 | 国产精品不卡在线播放 | 5月丁香婷婷综合 | 久草视频在线资源站 | 久久男人免费视频 | 色综合天天爱 | 九九精品毛片 | 久久久精品久久日韩一区综合 | 天天综合人人 | 精品99999| 国产一区二区手机在线观看 | 色视频国产直接看 | 成人a视频 | 午夜av网站 | 97超碰站 | 亚洲国产精品激情在线观看 | www.一区二区三区 | 国产这里只有精品 | 欧美aa在线观看 | 免费无遮挡动漫网站 | 欧美精品xxx | 亚洲精品456在线播放第一页 | 91久久久久久国产精品 | 欧美久久久久久久久久久久 | 99久久精品免费一区 | 成人久久久久久久久久 | 91av在线视频免费观看 | 91免费在线视频 | 欧洲精品码一区二区三区免费看 | 激情在线免费视频 | 日韩欧美国产精品 | 免费观看视频黄 | 国产精品大片在线观看 | 成人作爱视频 | 999电影免费在线观看2020 | 又黄又爽又湿又无遮挡的在线视频 | 久久国产精品久久w女人spa | 久久久视屏 | 精品乱码一区二区三四区 | 激情欧美一区二区免费视频 | 亚洲激情六月 | 丰满少妇在线观看 |