日韩av黄I国产麻豆传媒I国产91av视频在线观看I日韩一区二区三区在线看I美女国产在线I麻豆视频国产在线观看I成人黄色短片

歡迎訪問 生活随笔!

生活随笔

當前位置: 首頁 >

Lesson 6.5Lesson 6.6.1Lesson 6.6.2 机器学习调参基础理论与网格搜索多分类评估指标的macro与weighted过程GridSearchCV的进阶使用方法

發布時間:2025/4/5 37 豆豆
生活随笔 收集整理的這篇文章主要介紹了 Lesson 6.5Lesson 6.6.1Lesson 6.6.2 机器学习调参基础理论与网格搜索多分类评估指标的macro与weighted过程GridSearchCV的进阶使用方法 小編覺得挺不錯的,現在分享給大家,幫大家做個參考.

Lesson 6.5 機器學習調參基礎理論與網格搜索

在上一小節執行完手動調參之后,接下來我們重點討論關于機器學習調參的理論基礎,并且介紹sklearn中調參的核心工具——GridSearchCV。

# 科學計算模塊 import numpy as np import pandas as pd# 繪圖模塊 import matplotlib as mpl import matplotlib.pyplot as plt# 自定義模塊 from ML_basic_function import *# Scikit-Learn相關模塊 # 評估器類 from sklearn.preprocessing import StandardScaler from sklearn.preprocessing import PolynomialFeatures from sklearn.linear_model import LogisticRegression from sklearn.pipeline import make_pipeline# 實用函數 from sklearn.model_selection import train_test_split from sklearn.metrics import accuracy_score

一、機器學習調參理論基礎

在利用sklearn進行機器學習調參之前,我們先深入探討一些和調參相關的機器學習基礎理論。盡管我們都知道,調參其實就是去尋找一組最優參數,但最優參數中的“最優”如何定義?面對模型中的眾多參數又該如何“尋找”?要回答這些問題,我們就必須補充更加完整的關于機器學習中參數和調參的理論知識。

1.機器學習調參目標及基本方法

首先需要明確的一點,我們針對哪一類參數進行調參,以及圍繞什么目的進行調參?

  • 參數與超參數

根據此前對參數的劃分,我們知道,影響機器學習建模結果的參數有兩類,其一是參數,其二是超參數。其中參數的數值計算由一整套數學過程決定,在選定方法后,其計算過程基本不需要人工參與。因此我們經常說的模型調參,實際上是調整模型超參數。超參數種類繁多,而且無法通過一個嚴謹的數學流程給出最優解,因此需要人工參與進行調節。

而在圍繞具體的機器學習評估器進行調參時,其實就是在調整評估器實例化過程中所涉及到的那些超參數,例如此前進行邏輯回歸參數解釋時的超參數,當然,這也是我們為什么需要對評估器進行如此詳細的超參數的解釋的原因之一。

  • 超參數調整目標

那么緊接著的問題就是,超參數的調整目標是什么?是提升模型測試集的預測效果么?

無論是機器學習還是統計模型,只要是進行預測的模型,其實核心的建模目標都是為了更好的進行預測,也就是希望模型能夠有更好的預測未來的能力,換而言之,就是希望模型能夠有更強的泛化能力。而在Lesson 3中我們曾談到,機器學習類算法的可信度來源則是訓練集和測試集的劃分理論,也就是機器學習會認為,只要能夠在模擬真實情況的測試集上表現良好,模型就能夠具備良好的泛化能力。也就是說,超參數調整的核心目的是為了提升模型的泛化能力,而測試集上的預測效果只是模型泛化能力的一個具體表現,并且相比與一次測試集上的運行結果,其實借助交叉驗證,能夠提供更有效、更可靠的模型泛化能力的證明。

  • 交叉驗證與評估指標

如果需要獲得更可靠的模型泛化能力的證明,則需要進行交叉驗證,通過多輪的驗證,來獲得模型的更為一般、同時也更為準確的運行結果。當然,我們還需要謹慎的選擇一個合適的評估指標對其進行結果評估。

  • 如何提升模型泛化能力

如果擁有了一個更加可信的、用于驗證模型是否具有泛化能力的評估方式之后,那么接下來的問題就是,我們應該如何提升模型泛化能力呢?

當然,這其實是一個很大的問題,我們可以通過更好的選擇模型(甚至是模型創新)、更好的特征工程、更好的模型訓練等方法來提高模型泛化能力,而此處我們將要介紹的,是圍繞某個具體的模型、通過更好的選擇模型中的超參數,來提高模型的泛化能力。不過正如此前所說,超參數無法通過一個嚴謹的數學流程給出最優解,因此超參數的選擇其實是經驗+一定范圍內枚舉(也就是網格搜索)的方法來決定的。這個過程雖然看起來不是那么的cooooool,但確實目前機器學習超參數選擇的通用方式,并且當我們深入進行了解之后就會發現,盡管是經驗+枚舉,但經驗的積累和枚舉技術的掌握,其實也是算法工程師建模水平的重要證明。

2.基于網格搜索的超參數的調整方法

在了解機器學習中調參的基礎理論之后,接下來我們考慮一個更加具體的調參流程。實際上,盡管對于機器學習來說超參數眾多,但能夠對模型的建模結果產生決定性影響的超參數卻不多,對于大多數超參數,我們都主要采用“經驗結合實際”的方式來決定超參數的取值,如數據集劃分比例、交叉驗證的折數等等,而對于一些如正則化系數、特征衍生階數等,則需要采用一個流程來對其進行調節。而這個流程,一般來說就是進行搜索與枚舉,或者也被稱為網格搜索(gridsearch)。

所謂搜索與枚舉,指的是將備選的參數一一列出,多個不同參數的不同取值最終將組成一個參數空間(parameter space),在這個參數空間中選取不同的值帶入模型進行訓練,最終選取一組最優的值作為模型的最終超參數,當然,正如前面所討論的,此處“最優”的超參數,應該是那些盡可能讓模型泛化能力更好的參數。當然,在這個過程中,有兩個核心問題需要注意,其一是參數空間的構成,其二是選取能夠代表模型泛化能力的評估指標。接下來我們對其進行逐個討論。

2.1 參數空間

  • 參數空間的定義

所謂參數空間,其實就是我們挑選出來的、接下來需要通過枚舉和搜索來進行數值確定的參數取值范圍所構成的空間。例如對于邏輯回歸模型來說,如果選擇penalty參數和C來進行搜索調參,則這兩個參數就是參數空間的不同維度,而這兩個參數的不同取值就是這個參數空間中的一系列點,例如(penalty=‘l1’, C=1)、(penalty=‘l1’, C=0.9)、(penalty=‘l2’, C=0.8)等等,就是這個參數空間內的一系列點,接下來我們就需要從中挑選組一個最優組合。

  • 參數空間構造思路

那么我們需要帶入那些參數去構造這個參數空間呢?也就是我們需要選擇那些參數進行調參呢?切記,調參的目的是為了提升模型的泛化能力,而保證泛化能力的核心是同時控制模型的經驗風險和結構風險(既不讓模型過擬合也不讓模型前擬合),因此,對于邏輯回歸來說,我們需要同時帶入能夠讓模型擬合度增加、同時又能抑制模型過擬合傾向的參數來構造參數空間,即需要帶入特征衍生的相關參數、以及正則化的相關參數。

一個建模流程中的特征衍生的相關參數,也是可以帶入同一個參數空間進行搜索的。

2.2 交叉驗證與評估指標

實際的超參數的搜索過程和我們上面討論的模型結構風險一節中的參數選取過程略有不同,此前我們的過程是:先在訓練集中訓練模型,然后計算訓練誤差和泛化誤差,通過二者誤差的比較來觀察模型是過擬合還是欠擬合(即評估模型泛化能力),然后再決定這些超參數應該如何調整。而在一個更加嚴謹的過程中,我們需要將上述“通過對比訓練誤差和測試誤差的差異,來判斷過擬合還是欠擬合”的這個偏向主觀的過程變成一個更加客觀的過程,即我們需要找到一個能夠基于目前模型建模結果的、能代表模型泛化能力的評估指標,這即是模型建模流程更加嚴謹的需要,同時也是讓測試集回歸其本來定位的需要。

  • 評估指標選取

而這個評估指標,對于分類模型來說,一般來說就是ROC-AUC或F1-Score,并且是基于交叉驗證之后的指標。我們通常會選取ROC-AUC或F1-Score,其實也是因為這兩個指標的敏感度要強于準確率(詳見Lesson 5中的討論),并且如果需要重點識別模型識別1類的能力,則可考慮F1-Score,其他時候更推薦使用ROC-AUC。

  • 交叉驗證過程

而為何要進行交叉驗證,則主要原因是超參數的調整也需要同時兼顧模型的結構風險和經驗風險,而能夠表示模型結構風險的,就是不帶入模型訓練、但是能夠對模型建模結果進行評估并且指導模型進行調整的驗證集上的評估結果。

上述過程可以具體表示成如下步驟:

  • 在訓練集中進行驗證集劃分(幾折待定);
  • 帶入訓練集進行建模、帶入驗證集進行驗證,并輸出驗證集上的模型評估指標;
  • 計算多組驗證集上的評估指標的均值,作為該超參數下模型最終表現。

因此,在大多數情況下,網格搜索(gridsearch)都是和交叉驗證(CV)同時出現的,這也是為什么sklearn中執行網格搜索的類名稱為GridSearchCV的原因。

另外需要強調的一點是,由于交叉驗證的存在,此時測試集的作用就變成了驗證網格搜索是否有效,而非去驗證模型是否有效(此時模型是否有效由驗證集來驗證)。由于此時我們提交給測試集進行測試的,都是經過交叉驗證挑選出來的最好的一組參數、或者說至少是在驗證集上效果不錯的參數(往往也是評估指標比較高的參數),而此時如果模型在測試集上運行效果不好、或者說在測試集上評估指標表現不佳,則說明模型仍然還是過擬合,之前執行的網格搜索過程并沒有很好的控制住模型的結構風險,據此我們需要調整此前的調參策略,如調整參數空間、或者更改交叉驗證策略等。

當然,如果是對網格搜索的過程比較自信,也可以不劃分測試集,直接帶入全部數據進行模型訓練。

二、基于Scikit-Learn的網格搜索調參

在了解機器學習調參基礎理論之后,接下來我們來借助sklearn中的相關工具,來執行更加高效的調參工作。

1.sklearn中網格搜索的基本說明

由于網格搜索確定超參數的過程實際上幫助進行模型篩選,因此我們可以在sklearn的model_selection模塊查找相關內容。要學習sklearn中的網格搜索相關功能,最好還是從查閱官網的說明文檔開始,我們可以在sklearn的User Guide的3.2節中我們能看到關于網格搜索的相關內容。首先介紹官網給出的相關說明:

該說明文檔開宗明義的介紹了網格搜索根本目的是為了調整超參數(Hyper-parameters),也就是評估器(estimators)中的參數,每個評估器中的參數可以通過.get_params()的方法來查看,并且建議配合交叉驗證來執行。

同時,該說明文檔重點指出了網格搜索中的核心要素,分別是:評估器、參數空間、搜索策略、交叉驗證以及評估指標。其中參數空間、交叉驗證以及評估指標我們都在此前介紹過了,而根據下文的介紹,sklearn中實際上是集成了兩種不同的進行參數搜索的方法,分別是GridSearchCV和RandomizedSearchCV:
盡管都是進行網格搜索,但兩種方法還是各有不同,GridSearchCV會嘗試參數空間內的所有組合,而RandomizedSearchCV則會先進行采樣再來進行搜索,即對某個參數空間的某個隨機子集進行搜索。并且上文重點強調,這兩種方法都支持先兩兩比對、然后逐層篩選的方法來進行參數篩選,即HalvingGridSearchCV和HalvingRandomSearchCV方法。注意,這是sklearn最新版、也就是0.24版才支持的功能,該功能的出現也是0.24版最大的改動之一,而該功能的加入,也將進一步減少網格搜索所需計算資源、加快網格搜索的速度。

由于目前sklearn中最通用的版本還是0.23版,因此0.24版中的提供的網格篩選的新功能在正課內容暫時不做介紹,后續將以加餐形式補充進行講解。

當然,說明文檔中也再次強調,由于sklearn的評估器中集成了非常多的參數,而并非所有參數都對最終建模結果有顯著影響,因此為了不增加網格搜索過程計算量,推薦謹慎的構造參數空間,部分參數仍然以默認參數為主。

在介紹完基本說明文檔后,接下來我們嘗試調用sklearn中集成的相關方法來進行建模試驗。

2.sklearn中GridSearchCV的參數解釋

接下來我們詳細介紹GridSearchCV的相關參數,我們知道該方法的搜索策略是“全搜索”,即對參數空間內的所有參數進行搜索,該方法在model_selection模塊下,同樣也是以評估器形式存在,我們可以通過如下方式進行導入:

from sklearn.model_selection import GridSearchCV

不難發現該評估器的參數主體就是此前介紹的評估器、參數空間、交叉驗證以及評估指標,我們對該評估器的完整參數進行解釋:

GridSearchCV? #GridSearchCV( # estimator, # param_grid, # *, # scoring=None, # n_jobs=None, # iid='deprecated', # refit=True, 參數應用到所用數據 # cv=None, 默認是五折交叉驗證 # verbose=0, # pre_dispatch='2*n_jobs', # error_score=nan, # return_train_score=False, )


整體來看,上面的主要參數分為三類,分別是核心參數、評估參數和性能參數。

  • 核心參數

所謂性能參數,也就是涉及評估器訓練(fit)的最核心參數,也就是estimator參數和param_grid參數,同時也是實例化評估器過程中最重要的參數。

  • 評估參數

所謂評估參數,指的是涉及到不同參數訓練結果評估過程方式的參數,主要是scoring、refit和cv三個參數。當然這三個參數都不是必要參數,但這三個參數卻是直接決定模型結果評估過程、并且對最終模型參數選擇和模型泛化能力提升直觀重要的三個參數。這三個參數各自都有一個默認值,我們先解釋在默認值情況下這三個參數的運作方式,然后在進階應用階段討論如何對這三個參數進行修改。

首先是關于scoring參數的選取,scoring表示選取哪一項評估指標來對模型結果進行評估。而根據參數說明文檔我們知道,在默認情況下scoring的評估指標就是評估器的.score方法默認的評估指標,對于邏輯回歸來說也就是準確率。也就是說在默認情況下如果是圍繞邏輯回歸進行網格搜索,則默認評估指標是準確率。此外,scoring參數還支持直接輸入可調用對象(評估函數)、代表評估函數運行方式的字符串、字典或者list。而refit參數則表示選擇一個用于評估最佳模型的評估指標,然后在最佳參數的情況下整個訓練集上進行對應評估指標的計算。而cv則是關于交叉驗證的相關參數,默認情況下進行5折交叉驗證,并同時支持自定義折數的交叉驗證、輸入交叉驗證評估器的交叉驗證、以及根據指定方法進行交叉驗證等方法。當然此組參數有非常多的設計方法,我們將在進階應用階段進行進一步的詳解。

  • 性能參數

第三組則是關于網格搜索執行性能相關的性能參數,主要包括n_jobs和pre_dispatch參數兩個,用于規定調用的核心數和一個任務按照何種方式進行并行運算。在網格搜索中,由于無需根據此前結果來確定后續計算方法,所以可以并行計算。在默認情況下并行任務的劃分數量和n_jobs相同。當然,這組參數的合理設置能夠一定程度提高模型網格搜索效率,但如果需要大幅提高執行速度,建議使用RandomizedSearchCV、或者使用Halving方法來進行加速。

3.sklearn中GridSearchCV的使用方法

在了解了GridSearchCV的基本方法之后,接下來我們以邏輯回歸在鳶尾花數據集上建模為例,來嘗試使用GridSearchCV方法進行網格調參,并同時介紹網格搜索的一般流程:

3.1 GridSearchCV評估器訓練過程

  • Step 1.創建評估器

首先我們還是需要實例化一個評估器,這里可以是一個模型、也可以是一個機器學習流,網格搜索都可以對其進行調參。此處我們先從簡單入手,嘗試實例化邏輯回歸模型并對其進行調參。

# 數據導入 from sklearn.datasets import load_iris X, y = load_iris(return_X_y=True) X_train, X_test, y_train, y_test = train_test_split(X, y, random_state=24)clf = LogisticRegression(max_iter=int(1e6), solver='saga')

此處將solver設置成saga,也是為了方便后續同時比較l1正則化和l2正則化時無需更換求解器。

clf.get_params() #{'C': 1.0, # 'class_weight': None, # 'dual': False, # 'fit_intercept': True, # 'intercept_scaling': 1, # 'l1_ratio': None, # 'max_iter': 1000000, # 'multi_class': 'auto', # 'n_jobs': None, # 'penalty': 'l2', # 'random_state': None, # 'solver': 'saga', # 'tol': 0.0001, # 'verbose': 0, # 'warm_start': False}
  • Step 2.創建參數空間

接下來,我們就需要挑選評估器中的超參數構造參數空間,需要注意的是,我們需要挑選能夠控制模型擬合度的超參數來進行參數空間的構造,例如挑選類似verbose、n_jobs等此類參數構造參數是毫無意義的。此處我們挑選penalty和C這兩個參數來進行參數空間的構造。參數空間首先可以是一個字典:

param_grid_simple = {'penalty': ['l1', 'l2'],'C': [1, 0.5, 0.1, 0.05, 0.01]} #C大對經驗風險懲罰力度大

其中,字典的Key用參數的字符串來代表不同的參數,對應的Value則用列表來表示對應參數不同的取值范圍。也就是字典的Key是參數空間的維度,而Value則是不同緯度上可選的取值。而后續的網格搜索則是在上述參數的不同組合中挑選出一組最優的參數取值。

當然,由于如此構造方法,此處自然會衍生出一個新的問題,那就是如果某個維度的參數取值對應一組新的參數,應該如何處理?例如,對于邏輯回歸來說,如果penalty參數中選擇彈性網參數,則會衍生出一個新的參數l1_ratio,如果我們還想考慮penalty參數選取elasticnet參數,并且同時評估l1_ratio取不同值時模型效果,則無法將上述參數封裝在一個參數空間內,因為當penalty取其他值時l1_ratio并不存在。為了解決這個問題,我們可以創造多個參數空間(字典),然后將其封裝在一個列表中,而該列表則表示多個參數空間的集成。例如上述問題可以進行如下表示:

param_grid_ra = [{'penalty': ['l1', 'l2'], 'C': [1, 0.5, 0.1, 0.05, 0.01]}, {'penalty': ['elasticnet'], 'C': [1, 0.5, 0.1, 0.05, 0.01], 'l1_ratio': [0.3, 0.6, 0.9]} ]

即可表示網格搜索在l1+1、l1+0.5…空間與elasticnet+1+0.3、elasticnet+1+0.6…空間同時進行搜索。

  • Step 3.實例化網格搜索評估器

和sklearn中其他所有評估器一樣,網格搜索的評估器的使用也是先實例化然后進行對其進行訓練。此處先實例化一個簡單的網格搜索評估器,需要輸入此前設置的評估器和參數空間。

search = GridSearchCV(estimator=clf,param_grid=param_grid_simple)
  • Step 4.訓練網格搜索評估器

同樣,我們通過fit方法即可完成評估器的訓練。

search.fit(X_train, y_train) #GridSearchCV(estimator=LogisticRegression(max_iter=1000000, solver='saga'), # param_grid={'C': [1, 0.5, 0.1, 0.05, 0.01], # 'penalty': ['l1', 'l2']})

需要知道的是,所謂的訓練網格搜索評估器,本質上是在挑選不同的參數組合進行邏輯回歸模型訓練,而訓練完成后相關結果都保存在search對象的屬性中。

3.2 GridSearchCV評估器結果查看

此處我們先介紹關于網格搜索類的所有屬性和方法,再來查看挑選其中重要屬性的結果進行解讀。

  • best_estimator_:訓練完成后的最佳評估器

實際上返回的就是帶有網格搜索挑選出來的最佳參數(超參數)的評估器。

search.best_estimator_ #LogisticRegression(C=1, max_iter=1000000, penalty='l1', solver='saga')

上述評估器就相當于一個包含最佳參數的邏輯回歸評估器,可以調用邏輯回歸評估器的所有屬性:

# 查看參數 search.best_estimator_.coef_ #array([[ 0. , 0. , -3.47349066, 0. ], # [ 0. , 0. , 0. , 0. ], # [-0.55506614, -0.34227663, 3.03238721, 4.12147362]])# 查看訓練誤差、測試誤差 search.best_estimator_.score(X_train,y_train), search.best_estimator_.score(X_test,y_test) #(0.9732142857142857, 0.9736842105263158)# 查看參數 search.best_estimator_.get_params() # {'C': 1, # 'class_weight': None, # 'dual': False, # 'fit_intercept': True, # 'intercept_scaling': 1, # 'l1_ratio': None, # 'max_iter': 1000000, # 'multi_class': 'auto', # 'n_jobs': None, # 'penalty': 'l1', # 'random_state': None, # 'solver': 'saga', # 'tol': 0.0001, # 'verbose': 0, # 'warm_start': False}
  • best_score_:最優參數時交叉驗證平均得分
search.best_score_ #0.9644268774703558

在默認情況下(未修改網格搜索評估器中評估指標參數時),此處的score就是準確率。此處有兩點需要注意:

  • 其一:該指標和訓練集上整體準確率不同,該指標是交叉驗證時驗證集準確率的平均值,而不是所有數據的準確率;
  • 其二:該指標是網格搜索在進行參數挑選時的參照依據。

其他屬性方法測試

search.cv_results_ #{'mean_fit_time': array([0.05980272, 0.02458634, 0.03755803, 0.02086544, 0.00778856, # 0.012042 , 0.00317636, 0.00887041, 0.00049868, 0.00350785]), # 'std_fit_time': array([5.92201677e-03, 1.05405387e-03, 1.34667070e-03, 5.44148798e-04, # 3.86861563e-04, 2.92282252e-04, 1.52451976e-04, 1.55462472e-04, # 3.12557937e-05, 6.50887088e-05]), # 'mean_score_time': array([0.00021739, 0.00026002, 0.00019102, 0.00014124, 0.00024142, # 0.00024619, 0.00019336, 0.0002326 , 0.00011868, 0.00018349]), # 'std_score_time': array([5.97641527e-05, 1.38007910e-05, 7.29972748e-05, 5.19692566e-05, # 2.59789181e-05, 1.48881665e-05, 3.58951028e-05, 1.17117652e-05, # 1.74159836e-06, 4.23601048e-05]), # 'param_C': masked_array(data=[1, 1, 0.5, 0.5, 0.1, 0.1, 0.05, 0.05, 0.01, 0.01], # mask=[False, False, False, False, False, False, False, False, # False, False], # fill_value='?', # dtype=object), # 'param_penalty': masked_array(data=['l1', 'l2', 'l1', 'l2', 'l1', 'l2', 'l1', 'l2', 'l1', # 'l2'], # mask=[False, False, False, False, False, False, False, False, # False, False], # fill_value='?', # dtype=object), # 'params': [{'C': 1, 'penalty': 'l1'}, # {'C': 1, 'penalty': 'l2'}, # {'C': 0.5, 'penalty': 'l1'}, # {'C': 0.5, 'penalty': 'l2'}, # {'C': 0.1, 'penalty': 'l1'}, # {'C': 0.1, 'penalty': 'l2'}, # {'C': 0.05, 'penalty': 'l1'}, # {'C': 0.05, 'penalty': 'l2'}, # {'C': 0.01, 'penalty': 'l1'}, # {'C': 0.01, 'penalty': 'l2'}], # 'split0_test_score': array([1. , 1. , 1. , 1. , 1. , # 1. , 0.82608696, 1. , 0.30434783, 0.91304348]), # 'split1_test_score': array([0.91304348, 0.91304348, 0.82608696, 0.86956522, 0.82608696, # 0.73913043, 0.69565217, 0.73913043, 0.39130435, 0.69565217]), # 'split2_test_score': array([1. , 1. , 1. , 1. , 0.95454545, # 0.95454545, 0.86363636, 0.90909091, 0.36363636, 0.86363636]), # 'split3_test_score': array([0.95454545, 0.95454545, 0.95454545, 0.90909091, 0.95454545, # 0.95454545, 0.86363636, 0.90909091, 0.36363636, 0.90909091]), # 'split4_test_score': array([0.95454545, 0.95454545, 0.95454545, 0.95454545, 0.95454545, # 0.90909091, 0.86363636, 0.95454545, 0.36363636, 0.90909091]), # 'mean_test_score': array([0.96442688, 0.96442688, 0.94703557, 0.94664032, 0.93794466, # 0.91146245, 0.82252964, 0.90237154, 0.35731225, 0.85810277]), # 'std_test_score': array([0.03276105, 0.03276105, 0.06379941, 0.05120065, 0.05863407, # 0.09083516, 0.06508431, 0.08830786, 0.02856808, 0.08323326]), # 'rank_test_score': array([ 1, 1, 3, 4, 5, 6, 9, 7, 10, 8], dtype=int32)} search.best_params_ #{'C': 1, 'penalty': 'l1'} search.best_index_ #0 # 等價于search.best_estimator_.score search.score(X_train,y_train), search.score(X_test,y_test) #(0.9732142857142857, 0.9736842105263158) search.n_splits_ #5 search.refit_time_ #0.07661604881286621

至此,我們就執行了一個完整的網格搜索的調參過程。但該過程大多只使用了默認參數在小范圍內進行的運算,如果我們希望更換模型評估指標、并且在一個更加完整的參數范圍內進行搜索,則需要對上述過程進行修改,并更近一步掌握關于評估器中scoring參數和refit參數的相關使用方法,相關內容我們將在哦下一小節進行詳細討論。

Lesson 6.6.1 多分類評估指標的macro與weighted過程

在正式討論關于網格搜索的進階使用方法之前,我們需要先補充一些關于多分類問題的評估指標計算過程。在此前的課程中,我們曾經介紹過分類模型在解決多分類問題時的不同策略,同時也介紹過二分類問題的更高級評估指標,如f1-score和roc-auc等,接下來我們將詳細討論關于多分類預測結果在f1-socre和roc-auc中的評估過程,以及在sklearn中如何調用函數進行計算。

# 科學計算模塊 import numpy as np import pandas as pd# 繪圖模塊 import matplotlib as mpl import matplotlib.pyplot as plt# 自定義模塊 from ML_basic_function import *# Scikit-Learn相關模塊 # 評估器類 from sklearn.preprocessing import StandardScaler from sklearn.preprocessing import PolynomialFeatures from sklearn.linear_model import LogisticRegression from sklearn.pipeline import make_pipeline from sklearn.model_selection import GridSearchCV# 實用函數 from sklearn.model_selection import train_test_split from sklearn.metrics import accuracy_score# 數據準備 from sklearn.datasets import load_iris
  • 多分類F1-Score評估指標

首先導入和F1-Score相關的評估指標計算函數

from sklearn.metrics import precision_score,recall_score,f1_score

然后簡單查看相關說明文檔,發現這幾組和混淆矩陣相關的評估指標基本是共用了一套參數命名,并且大多數參數其實都是作用于多分類問題,對于二分類問題,我們可以簡單調用相關函數直接計算:

y_true = np.array([1, 0, 0, 1, 0, 1]) y_pred = np.array([1, 1, 0, 1, 0, 1])precision_score(y_true, y_pred), recall_score(y_true, y_pred), f1_score(y_true, y_pred) #(0.75, 1.0, 0.8571428571428571) precision_score? #Signature: #precision_score( # y_true, # y_pred, # *, # labels=None, # pos_label=1, # average='binary', # sample_weight=None, # zero_division='warn', #)

具體參數含義解釋如下:

其中,需要重點介紹多分類問題時average參數不同取值時的計算方法。此處以recall為例進行計算,重點介紹當average取值為’macro’、'micro’和’weighted’的情況,其他指標也類似,例如有簡單多分類問題如下:

我們令1類標簽為0、2類標簽為1、3類標簽為2,則上述數據集真實標簽為:

y_true = np.array([0, 1, 2, 2, 0, 1, 1, 2, 0, 2])

并且最終分類預測結果為:

y_pred = np.array([0, 1, 0, 2, 2, 1, 2, 2, 0, 2])

據此我們可以構造多分類混淆矩陣如下:

據此我們可以計算三個類別的TP和FN:

tp1 = 2 tp2 = 2 tp3 = 3 fn1 = 1 fn2 = 1 fn3 = 1

接下來有兩種計算recall的方法,其一是先計算每個類別的recall,然后求均值:

re1 = 2/3 re2 = 2/3 re3 = 3/4 np.mean([re1, re2, re3]) #0.6944444444444443

這也就是average參數取值為macro時的計算結果:

recall_score(y_true, y_pred, average='macro') #0.6944444444444443

當然,如果上述手動實現過程不求均值,而是根據每個類別的數量進行加權求和,則就是參數average參數取值為weighted時的結果:

re1 * 3/10 + re2 * 3/10 + re3 * 4/10 #0.7 recall_score(y_true, y_pred, average='weighted') #0.7

當然,還有另外一種計算方法,那就是先計算整體的TP和FN,然后根據整體TP和FN計算recall:

tp = tp1 + tp2 + tp3 fn = fn1 + fn2 + fn3 tp / (tp+fn) #0.7

該過程也就是average參數取值micro時的計算結果:

recall_score(y_true, y_pred, average='micro') #0.7

對于上述三個不同參數的選取,首先如果是樣本不平衡問題(如果是要側重訓練模型判別小類樣本的能力的情況下)、則應排除weighted參數,以避免賦予大類樣本更高的權重。除此以外,在大多數情況下這三個不同的參數其實并不會對最后評估器的選取結果造成太大影響,只是在很多要求嚴謹的場合下需要說明多分類的評估結果的計算過程,此時需要簡單標注下是按照何種方法進行的計算。

不過,如果是混淆矩陣中相關指標和roc-auc指標放在一起討論,由于新版sklearn中roc-auc本身不支持在多分類時按照micro計算、只支持macro計算,因此建議混淆矩陣的多分類計算過程也選擇macro過程,以保持一致。后續在沒有進行其他特殊說明的情況下,課上統一采用macro指標進行多分類問題評估指標的計算。

不過值得注意的是,還有一種觀點,盡管micro和macro方法在混淆矩陣相關指標的計算過程中差別不大,在roc-auc中,macro指標并不利于非平衡樣本的計算(混淆矩陣中可以通過positive的類別選擇來解決這一問題),需要配合ovr分類方法才能夠有所改善。

  • 多分類ROC-AUC評估指標

接下來繼續討論關于多分類的ROC-AUC評估指標的相關問題:

from sklearn.metrics import roc_auc_score

能夠發現,roc_auc_score評估指標函數中大多數參數都和此前介紹的混淆矩陣中評估指標類似。接下來我們簡單嘗試使用roc-auc函數進行評估指標計算,根據roc-auc的計算流程可知,此處我們需要在y_pred參數位中輸入模型概率預測結果:

y_true = np.array([1, 0, 0, 1, 0, 1]) y_pred = np.array([0.9, 0.7, 0.2, 0.7, 0.4, 0.8]) roc_auc_score(y_true, y_pred) #0.9444444444444444

當然,如果我們在y_pred參數中輸入分類結果,該函數也能計算出最終結果:

y_true = np.array([1, 0, 0, 1, 0, 1]) y_pred = np.array([1, 1, 0, 1, 0, 1]) roc_auc_score(y_true, y_pred) #0.8333333333333334

不過,此時模型會默認預測標簽為0的概率結果為0.4、預測標簽為1的概率預測結果為0.6,即上述結果等價于:

y_true = np.array([1, 0, 0, 1, 0, 1]) y_pred = np.array([0.6, 0.6, 0.4, 0.6, 0.4, 0.6]) roc_auc_score(y_true, y_pred) #0.8333333333333334

即計算過程會默認模型概率預測結果更差。

接下來詳細解釋roc-auc中其他參數:

roc_auc_score? #Signature: #roc_auc_score( # y_true, # y_score, # *, # average='macro', # sample_weight=None, # max_fpr=None, # multi_class='raise', # labels=None,#multi_class : {'raise', 'ovr', 'ovo'}, default='raise' # Multiclass only. Determines the type of configuration to use. The # default value raises an error, so either ``'ovr'`` or ``'ovo'`` must be # passed explicitly. #raise多分類報錯,mvm很多時候和ovr有相通的地方 #二分類分類器在解決多分類問題,用什么這邊用什么#average : {'micro', 'macro', 'samples', 'weighted'} or None, #default='macro' # If ``None``, the scores for each class are returned. Otherwise, # this determines the type of averaging performed on the data: # Note: multiclass ROC AUC currently only handles the 'macro' and # 'weighted' averages. #)


此處需要注意的是關于multi_class參數的選擇。一般來說sklearn中的multi_class參數都是二分類器中用于解決多元分類問題時的參數(如邏輯回歸),而由于roc-auc需要分類結果中的概率來完成最終計算,因此需要知道概率結果對應分類標簽——即到底是以ovo還是ovr模式在進行多分類,因此如果是進行多分類roc-auc計算時,需要對其進行明確說明。

不過對于多分類邏輯回歸來說,無論是ovr還是mvm策略,最終分類結果其實都可以看成是ovr分類結果,因此如果是多分類邏輯回歸計算roc-auc,需要設置multi_class參數為ovr。同時由于根據roc-auc的函數參數說明可知,在multi_class參數取為ovr時,average參數取值為macro時能夠保持一個較高的偏態樣本敏感性,因此對于roc-auc來說,大多數時候average參數建議取值為macro。總結一下,對于roc-auc進行多分類問題評估時,建議選擇的參數組合是ovr/ovo+macro,而ovr/ovo的參數選擇需要根據具體的多分類模型來定,如果是圍繞邏輯回歸多分類評估器來進行結果評估,則建議roc-auc和邏輯回歸評估器的multi_class參數都選擇ovr。

在新版的sklearn中,roc-auc函數的multi_class參數已不支持micro參數,面對多分類問題,該參數只能夠在macro和weighted中進行選擇。

接下來我們簡單測算average參數中macro和weighted的計算過程。還是圍繞上述數據集進行計算:
據此我們可以計算每個類別單獨的roc-auc值:

y_true_1 = np.array([1, 0, 0, 0, 1, 0, 0, 0, 1, 0]) y_pred_1 = np.array([0.8, 0.2, 0.5, 0.2, 0.3, 0.1, 0.3, 0.3, 0.9, 0.3]) r1 = roc_auc_score(y_true_1, y_pred_1) r1 #0.8809523809523809 y_true_2 = np.array([0, 1, 0, 0, 0, 1, 1, 0, 0, 0]) y_pred_2 = np.array([0.2, 0.6, 0.3, 0, 0.2, 0.8, 0.2, 0.3, 0, 0.1]) r2 = roc_auc_score(y_true_2, y_pred_2) r2 #0.8571428571428571 y_true_3 = np.array([0, 0, 1, 1, 0, 0, 0, 1, 0, 1]) y_pred_3 = np.array([0, 0.2, 0.2, 0.8, 0.5, 0.1, 0.5, 0.4, 0.1, 0.6]) r3 = roc_auc_score(y_true_3, y_pred_3) r3 #0.8125

此時r1、r2、r3的均值如下:

np.mean([r1, r2, r3]) #0.8501984126984127

該結果應當和macro+multi_class參數計算結果相同

y_pred = np.concatenate([y_pred_1.reshape(-1, 1), y_pred_2.reshape(-1, 1), y_pred_3.reshape(-1, 1)], 1) y_pred #array([[0.8, 0.2, 0. ], # [0.2, 0.6, 0.2], # [0.5, 0.3, 0.2], # [0.2, 0. , 0.8], # [0.3, 0.2, 0.5], # [0.1, 0.8, 0.1], # [0.3, 0.2, 0.5], # [0.3, 0.3, 0.4], # [0.9, 0. , 0.1], # [0.3, 0.1, 0.6]]) y_true = np.array([0, 1, 2, 2, 0, 1, 1, 2, 0, 2]) roc_auc_score(y_true, y_pred, average='macro', multi_class='ovr') #0.8501984126984127

當然,如果roc-auc函數的參數是ovr+weighted,則計算結果過程驗證如下:

r1 * 3/10 + r2 * 3/10 + r3 * 4/10 #0.8464285714285713 roc_auc_score(y_true, y_pred, average='weighted', multi_class='ovr') #0.8464285714285713

至此,我們就能夠較為清楚的了解關于f1-score和roc-auc評估指標在調用sklearn中相關函數解決多分類問題評估的具體方法。

Lesson 6.6.2 GridSearchCV的進階使用方法

在Lesson 6.5中我們已經完整總結了機器學習調參的基本理論,同時介紹了sklearn中網格搜索(GridSearchCV)評估器的參數及基本使用方法。本節我們將進一步介紹網格搜索的進階使用方法,并同時補充多分類問題評估指標在sklearn中實現的相關方法,然后圍繞Lesson 6.4中提出的問題給出一個基于網格搜索的解決方案。

# 科學計算模塊 import numpy as np import pandas as pd# 繪圖模塊 import matplotlib as mpl import matplotlib.pyplot as plt# 自定義模塊 from ML_basic_function import *# Scikit-Learn相關模塊 # 評估器類 from sklearn.preprocessing import StandardScaler from sklearn.preprocessing import PolynomialFeatures from sklearn.linear_model import LogisticRegression from sklearn.pipeline import make_pipeline from sklearn.model_selection import GridSearchCV# 實用函數 from sklearn.model_selection import train_test_split from sklearn.metrics import accuracy_score# 數據準備 from sklearn.datasets import load_iris

一、借助機器學習流構建全域參數搜索空間

首先是關于評估器全參數的設置方法。在此前的實驗中,我們只是保守的選取了部分我們覺得會對模型產生比較大影響的超參數來構建參數空間,但在實際場景中,調參應該是納入所有對模型結果有影響的參數進行搜索、并且是全流程中的參數來進行搜索。也就是說我們設置參數的空間的思路不應該更加“激進”一些,首先是對邏輯回歸評估器來說,應該是排除無用的參數外納入所有參數進行調參,并且就邏輯回歸模型來說,往往我們需要在模型訓練前進行特征衍生以增強模型表現,因此我們應該先構建一個包含多項式特征衍生的機器學習流、然后圍繞這個機器學習流進行參數搜索,這才是一個更加完整的調參過程。

首先,仿造Lesson 6.4中展示過程創造數據集如下:

np.random.seed(24) X = np.random.normal(0, 1, size=(1000, 2)) y = np.array(X[:,0]+X[:, 1]**2 < 1.5, int)plt.scatter(X[:, 0], X[:, 1], c=y)

X_train, X_test, y_train, y_test = train_test_split(X, y, train_size=0.7, random_state = 42)

然后開始構造機器學習流

# 構造機器學習流 pipe = make_pipeline(PolynomialFeatures(), StandardScaler(), LogisticRegression(max_iter=int(1e6))) # 查看參數 pipe.get_params() # {'memory': None, # 'steps': [('polynomialfeatures', PolynomialFeatures()), # ('standardscaler', StandardScaler()), # ('logisticregression', LogisticRegression(max_iter=1000000))], # 'verbose': False, # 'polynomialfeatures': PolynomialFeatures(), # 'standardscaler': StandardScaler(), # 'logisticregression': LogisticRegression(max_iter=1000000), # 'polynomialfeatures__degree': 2, # 'polynomialfeatures__include_bias': True, # 'polynomialfeatures__interaction_only': False, # 'polynomialfeatures__order': 'C', # 'standardscaler__copy': True, # 'standardscaler__with_mean': True, # 'standardscaler__with_std': True, # 'logisticregression__C': 1.0, # 'logisticregression__class_weight': None, # 'logisticregression__dual': False, # 'logisticregression__fit_intercept': True, # 'logisticregression__intercept_scaling': 1, # 'logisticregression__l1_ratio': None, # 'logisticregression__max_iter': 1000000, # 'logisticregression__multi_class': 'auto', # 'logisticregression__n_jobs': None, # 'logisticregression__penalty': 'l2', # 'logisticregression__random_state': None, # 'logisticregression__solver': 'lbfgs', # 'logisticregression__tol': 0.0001, # 'logisticregression__verbose': 0, # 'logisticregression__warm_start': False}# 構造參數空間 param_grid = [{'polynomialfeatures__degree': np.arange(2, 10).tolist(), 'logisticregression__penalty': ['l1'], 'logisticregression__C': np.arange(0.1, 2, 0.1).tolist(), 'logisticregression__solver': ['saga']}, {'polynomialfeatures__degree': np.arange(2, 10).tolist(), 'logisticregression__penalty': ['l2'], 'logisticregression__C': np.arange(0.1, 2, 0.1).tolist(), 'logisticregression__solver': ['lbfgs', 'newton-cg', 'sag', 'saga']},{'polynomialfeatures__degree': np.arange(2, 10).tolist(), 'logisticregression__penalty': ['elasticnet'], 'logisticregression__C': np.arange(0.1, 2, 0.1).tolist(), 'logisticregression__l1_ratio': np.arange(0.1, 1, 0.1).tolist(), 'logisticregression__solver': ['saga']} ]

二、優化評估指標選取

1.高級評估指標的選用方法

根據此前介紹,如果需要更好的驗證模型本身泛化能力,建議使用f1-score或者roc-auc,當然調整網格搜索過程的模型評估指標過程其實并不難理解,核心就是修改scoring參數取值。但由于涉及到在參數中調用評估函數,因此需要補充一些關于常用分類評估指標在sklearn中的函數使用方法,以及不同評估指標函數在不同參數取值時在網格搜索評估器中的調用方法。

GridSearchCV?

從評估器的說明文檔中能夠看出,scoring參數最基礎的情況下可以選擇輸入str(字符串)或者callable(可調用)對象,也就是可以輸入指代某個評估過程的字符串(一個字符串代表不同參數取值下的某評估函數),或者直接輸入某評估指標函數(或者通過make_score函數創建的函數),來進行模型結果的評估。當然,也可以在該參數位上直接輸入一個字典或者list,其中,如果是字典的話字典的value需要是str(字符串)或者callable(可調用)對象。這里看似復雜但實際上不難理解,由于sklearn中的評估指標函數一般都是有多個不同參數,而不同參數代表不同的計算過程,因此這些評估指標函數作為參數輸入網格搜索評估器中的時候,必須通過“某種方式”確定這些參數取值,因此就有了如下方法,即通過字符串對應表來查看不同字符串所代表的不同參數取值下的評估指標函數,如下所示:

相關說明可以在Scikit-Learn官網的的3.3. Metrics and scoring: quantifying the quality of predictions處查閱:


不難看出,在網格搜索中輸出評估指標參數,和調用評估指標函數進行數據處理還是有很大的區別。例如,metrics.roc_auc_score函數能夠同時處理多分類問題和二分類問題,但如果作為參數輸入到網格搜索中,roc_auc參數只能指代metrics.roc_auc_score函數的二分類功能,如果需要進行多分類,則需要在scoring參數中輸入roc_auc_ovr、roc_auc_ovo或者roc_auc_ovr_weighted、roc_auc_ovo_weighted。我們先簡單嘗試在scoring中輸入字符串的基本操作,然后在深入解釋roc-auc評估指標的使用方法。

同時,該參數列表也可以通過如下方式獲得:

import sklearn sorted(sklearn.metrics.SCORERS.keys()) ['accuracy', # 'adjusted_mutual_info_score', # 'adjusted_rand_score', # 'average_precision', # 'balanced_accuracy', # 'completeness_score', # 'explained_variance', # 'f1', # 'f1_macro', # 'f1_micro', # 'f1_samples', # 'f1_weighted', # 'fowlkes_mallows_score', # 'homogeneity_score', # 'jaccard', # 'jaccard_macro', # 'jaccard_micro', # 'jaccard_samples', # 'jaccard_weighted', # 'max_error', # 'mutual_info_score', # 'neg_brier_score', # 'neg_log_loss', # 'neg_mean_absolute_error', # 'neg_mean_gamma_deviance', # 'neg_mean_poisson_deviance', # 'neg_mean_squared_error', # 'neg_mean_squared_log_error', # 'neg_median_absolute_error', # 'neg_root_mean_squared_error', # 'normalized_mutual_info_score', # 'precision', # 'precision_macro', # 'precision_micro', # 'precision_samples', # 'precision_weighted', # 'r2', # 'recall', # 'recall_macro', # 'recall_micro', # 'recall_samples', # 'recall_weighted', # 'roc_auc', # 'roc_auc_ovo', # 'roc_auc_ovo_weighted', # 'roc_auc_ovr', # 'roc_auc_ovr_weighted', # 'v_measure_score'] from sklearn.metrics import roc_auc_score roc_auc_score?

例如字符串roc_auc_ovr就代表roc_auc_score函數中multi_class參數取值為ovr時的計算流程,也就是說,當網格搜索的scoring參數取值為字符串roc_auc_ovr時,就代表調用了multi_class=`ovr`、而其他參數選用默認參數的roc_auc_score函數作為模型評估函數。

GridSearchCV(estimator=pipe,param_grid=param_grid,scoring='roc_auc_ovr') # GridSearchCV(estimator=Pipeline(steps=[('polynomialfeatures', # PolynomialFeatures()), # ('standardscaler', StandardScaler()), # ('logisticregression', # LogisticRegression(max_iter=1000000))]), # param_grid=[{'logisticregression__C': [0.1, 0.2, # 0.30000000000000004, 0.4, # 0.5, 0.6, # 0.7000000000000001, 0.8, # 0.9, 1.0, 1.1, # 1.2000000000000002, # 1.3000000000000003, # 1.4000000000000001... # 1.4000000000000001, # 1.5000000000000002, 1.6, # 1.7000000000000002, # 1.8000000000000003, # 1.9000000000000001], # 'logisticregression__l1_ratio': [0.1, 0.2, # 0.30000000000000004, # 0.4, 0.5, 0.6, # 0.7000000000000001, # 0.8, 0.9], # 'logisticregression__penalty': ['elasticnet'], # 'logisticregression__solver': ['saga'], # 'polynomialfeatures__degree': [2, 3, 4, 5, 6, 7, 8, # 9]}], # scoring='roc_auc_ovr')

當然,scoring參數還支持直接輸入可調用對象,即支持輸入經過make_scorer函數轉化之后的評估指標函數:

from sklearn.metrics import make_scorer acc = make_scorer(roc_auc_score) GridSearchCV(estimator=pipe,param_grid=param_grid,scoring=acc) # GridSearchCV(estimator=Pipeline(steps=[('polynomialfeatures', # PolynomialFeatures()), # ('standardscaler', StandardScaler()), # ('logisticregression', # LogisticRegression(max_iter=1000000))]), # param_grid=[{'logisticregression__C': [0.1, 0.2, # 0.30000000000000004, 0.4, # 0.5, 0.6, # 0.7000000000000001, 0.8, # 0.9, 1.0, 1.1, # 1.2000000000000002, # 1.3000000000000003, # 1.4000000000000001... # 1.4000000000000001, # 1.5000000000000002, 1.6, # 1.7000000000000002, # 1.8000000000000003, # 1.9000000000000001], # 'logisticregression__l1_ratio': [0.1, 0.2, # 0.30000000000000004, # 0.4, 0.5, 0.6, # 0.7000000000000001, # 0.8, 0.9], # 'logisticregression__penalty': ['elasticnet'], # 'logisticregression__solver': ['saga'], # 'polynomialfeatures__degree': [2, 3, 4, 5, 6, 7, 8, # 9]}], # scoring=make_scorer(roc_auc_score))

但此時我們無法修改評估指標函數的默認參數。

值得注意的是,此處make_scorer函數實際上會將一個簡單的評估指標函數轉化為評估器結果評估函數。對于評估指標函數來說,只需要輸入標簽的預測值和真實值即可進行計算,例如:

accuracy_score([1, 1, 0], [1, 1, 1]) #0.6666666666666666

而評估器結果評估函數,則需要同時輸入評估器、特征矩陣以及對應的真實標簽,其執行過程是先將特征矩陣輸入評估器、然后將輸出結果和真實標簽進行對比:

acc = make_scorer(accuracy_score) acc(search.best_estimator_, X_train, y_train) #0.9732142857142857 search.score(X_train, y_train) #0.9732142857142857

而在網格搜索或者交叉驗證評估器中,只支持輸入經過make_scorer轉化后的評估指標函數。

2.同時輸入多組評估指標

當然,有的時候我們可能需要同時看不同參數下多項評估指標的結果,此時我們就可以在scoring中輸入列表、元組或者字典,當然字典對象會較為常用,例如如果我們需要同時選用roc-auc和accuracy作為模型評估指標,則需要創建如下字典:

scoring = {'AUC': 'roc_auc', 'Accuracy': make_scorer(accuracy_score)}

然后將其作為參數傳入網格搜索評估器內:

search = GridSearchCV(estimator=clf,param_grid=param_grid_simplescoring=scoring)

當然,roc-auc指標也可以用make_score來傳輸,accuracy也可以用字符串形式來傳輸,即來上述多評估指標的字典等價于:

{'AUC': make_scorer(roc_auc_score), 'Accuracy': 'accuracy'} #{'AUC': make_scorer(roc_auc_score), 'Accuracy': 'accuracy'}

不過,需要注意的是,盡管此時網格搜索評估器將同時計算一組參數下的多個評估指標結果并輸出,但我們只能選取其中一個評估指標作為挑選超參數的依據,而其他指標盡管仍然會計算,但結果只作參考。而refit參數中輸入的評估指標,就是最終選擇參數的評估指標

盡管網格搜索支持依據不同的評估指標進行參數搜索,但最終選擇何種參數,可以參考如下依據:

  • 有明確模型評估指標的

在很多競賽或者項目算法驗收環節,可能都會存在較為明確的模型評估指標,例如模型排名根據f1-score計算結果得出等。在該情況下,應當盡量選擇要求的評估指標。

  • 沒有明確模型評估指標的

但是,如果沒有明確的評估指標要求,則選擇評估指標最核心的依據就是盡可能提升/確保模型的泛化能力。此時,根據Lesson 5中對各評估指標的討論結果,如果數據集的各類別并沒有明確的差異,在算力允許的情況下,應當優先考慮roc-auc;而如果希望重點提升模型對類別1(或者某類別)的識別能力,則可以優先考慮f1-score作為模型評估指標。

search = GridSearchCV(estimator=clf,param_grid=param_grid_simplescoring=scoring)refit="AUC"

三、優化后建模流程

接下來,依據上述優化后的過程,來執行網格搜索。完整流程如下:

  • 構造機器學習流
# 構造機器學習流 pipe = make_pipeline(PolynomialFeatures(), StandardScaler(), LogisticRegression(max_iter=int(1e6)))
  • 構造包含多個評估器的機器學習流的參數空間
# 構造參數空間 param_grid = [{'polynomialfeatures__degree': np.arange(2, 10).tolist(), 'logisticregression__penalty': ['l1'], 'logisticregression__C': np.arange(0.1, 2, 0.1).tolist(), 'logisticregression__solver': ['saga']}, {'polynomialfeatures__degree': np.arange(2, 10).tolist(), 'logisticregression__penalty': ['l2'], 'logisticregression__C': np.arange(0.1, 2, 0.1).tolist(), 'logisticregression__solver': ['lbfgs', 'newton-cg', 'sag', 'saga']},{'polynomialfeatures__degree': np.arange(2, 10).tolist(), 'logisticregression__penalty': ['elasticnet'], 'logisticregression__C': np.arange(0.1, 2, 0.1).tolist(), 'logisticregression__l1_ratio': np.arange(0.1, 1, 0.1).tolist(), 'logisticregression__solver': ['saga']} ]
  • 實例化網格搜索評估器

考慮到實際參數空間較大,網格搜索需要耗費較長時間,此處使用單一指標roc作為參數選取指標進行搜索:

search = GridSearchCV(estimator=pipe,param_grid=param_grid, scoring='roc_auc', n_jobs=5)
  • 執行訓練
search.fit(X_train, y_train)
  • 查看結果
search.best_score_ #0.7879905483853072 search.best_params_ #{'logisticregression__C': 0.2, # 'logisticregression__penalty': 'l1', # 'logisticregression__solver': 'saga', # 'polynomialfeatures__degree': 3}

需要注意的是,上述best_score_屬性查看的結果是在roc-auc評估指標下,默認五折交叉驗證時驗證集上的roc-auc的平均值,但如果我們對訓練好的評估器使用.socre方法,查看的仍然是pipe評估器默認的結果評估方式,也就是準確率計算結果:

search.best_estimator_.score(X_train,y_train) #0.7857142857142857 search.best_estimator_.score(X_test,y_test) #0.7866666666666666

驗證準確率計算結果:

accuracy_score(search.best_estimator_.predict(X_train), y_train) #0.7857142857142857 accuracy_score(search.best_estimator_.predict(X_test), y_test) #0.7866666666666666
  • 結果分析

最終模型結果準確率在78%上下。當然,如果只看模型準確率結果,我們發現該結果相比Lesson 6.4中結果較差(Lesson 6.4中測試集最高得分達到0.8)。但是,該模型相比Lesson 6.4中模型來看,該模型基本沒有過擬合隱患(測試集分數甚至高于訓練集),因此該模型在未來的使用過程中更有可能能夠確保一個穩定的預測輸出結果(泛化能力更強)。這也是交叉驗證和roc-auc共同作用的結果。

當然,如果有明確要求根據準確率判斷模型效果,則上述過程應該選擇準確率,同時如果算力允許,也可以近一步擴大搜索空間(Lesson 6.4中0.8的準確率就是在15階多項式特征衍生基礎上進行的運算)。

至此,我們就完成了在實驗數據上的建模調優,在下一小節,我們將把上述技巧應用到一項kaggle數據集上來進行建模分析,屆時我們還將補充更多實戰過程中會用到的方法和技巧。

《新程序員》:云原生和全面數字化實踐50位技術專家共同創作,文字、視頻、音頻交互閱讀

總結

以上是生活随笔為你收集整理的Lesson 6.5Lesson 6.6.1Lesson 6.6.2 机器学习调参基础理论与网格搜索多分类评估指标的macro与weighted过程GridSearchCV的进阶使用方法的全部內容,希望文章能夠幫你解決所遇到的問題。

如果覺得生活随笔網站內容還不錯,歡迎將生活随笔推薦給好友。

99re在线视频观看 | 在线观看日韩国产 | 免费观看v片在线观看 | 色悠悠久久综合 | 国产精品久久久久久久毛片 | 在线成人观看 | 天天天色综合 | 中文字幕乱视频 | 激情婷婷亚洲 | 国产精品2019 | www麻豆视频| 色窝资源 | 国内精品视频在线 | 狠狠色丁香婷婷综合久小说久 | 玖玖玖国产精品 | 国产精品99久久99久久久二8 | 色婷婷狠狠五月综合天色拍 | 亚洲永久精品在线 | 日韩电影在线观看一区二区 | 高清av不卡| 国产一区在线不卡 | 亚洲影视资源 | 久久er99热精品一区二区三区 | 91黄视频在线 | 日韩在线观看网址 | 91在线看视频免费 | 久久精品视频免费观看 | 日韩精品在线视频 | 亚洲国产精品500在线观看 | 国产最新在线视频 | 免费高清男女打扑克视频 | 婷婷深爱五月 | 蜜桃视频成人在线观看 | a成人在线 | 欧洲精品亚洲精品 | 国产永久免费 | 久精品在线 | 久久福利综合 | 日韩av电影中文字幕在线观看 | 国产精品免费看久久久8精臀av | 国产在线va | 国产在线播放不卡 | 国产精品a级 | 亚洲黄色高清 | 久久久久久久久久福利 | 三级黄色大片在线观看 | 天天操天天摸天天干 | 激情视频综合网 | 97在线视频免费观看 | 色欧美成人精品a∨在线观看 | 国产精品青青 | 国产区精品在线观看 | 欧美日韩不卡在线 | 99性视频| 99热九九这里只有精品10 | 99热这里精品 | 91成人短视频在线观看 | 成人久久 | 日韩中文字幕亚洲一区二区va在线 | 久久久久国产精品午夜一区 | aaa日本高清在线播放免费观看 | 99色在线播放 | 欧美日韩精品在线播放 | 九九九九九九精品 | 综合激情av | 国内精品久久久久久久久久 | 亚洲精品99久久久久中文字幕 | 久久99国产精品久久99 | 色综合色综合久久综合频道88 | 国产精品第7页 | 综合黄色网 | 欧美一级片免费观看 | 午夜精品一区二区三区视频免费看 | 国产精品久久精品 | 人人爱爱人人 | 国产婷婷一区二区 | 国产精品亚洲精品 | 国产视频在线免费 | 精品视频免费播放 | www免费在线观看 | 91视频这里只有精品 | 免费黄色激情视频 | 在线高清一区 | 综合在线亚洲 | 色天天中文 | 国产视频97| 日韩视频免费观看高清完整版在线 | 国产人成在线视频 | 免费日韩一区 | 五月天婷婷丁香花 | 日日夜夜狠狠操 | 91黄色小网站 | 国产精品久久久久久久久久直播 | 国产麻豆精品久久一二三 | 超碰电影在线观看 | 久久极品 | 国产午夜激情视频 | 亚洲精欧美一区二区精品 | 五月天六月色 | 奇米影视在线99精品 | 亚洲成免费 | 久久精品女人毛片国产 | 午夜精品久久久久久久99水蜜桃 | 成年人黄色免费网站 | 免费看片成年人 | 欧美日本国产在线观看 | 91在线看网站 | 午夜在线看片 | 狠狠狠色 | 九九九电影免费看 | 国产精品6999成人免费视频 | 久久久国产影视 | 亚洲精品白浆高清久久久久久 | 五月婷综合网 | 天天射天天干天天 | 蜜臀av性久久久久av蜜臀妖精 | 国产伦精品一区二区三区照片91 | 欧美日韩国产亚洲乱码字幕 | 超碰人在线 | 国产精品免费一区二区三区在线观看 | 中文字幕一区二区三区乱码在线 | 日本一区二区三区免费看 | 国产99久久精品 | 在线观看中文字幕第一页 | 久99久久| 欧美激情第十页 | www九九热 | 亚洲精品99久久久久中文字幕 | 久久国产美女视频 | 精品久久久99 | 免费黄在线观看 | 国产视频日韩视频欧美视频 | 日韩色视频在线观看 | 91麻豆看国产在线紧急地址 | 精品国产理论片 | 久久公开视频 | 日韩专区在线播放 | 91高清完整版在线观看 | 中文字幕在线看视频国产 | 99精品在这里 | 国产99久久久国产精品成人免费 | 欧美久久久久久久久中文字幕 | 精品在线观看视频 | 精品久久久久久综合 | 国产高清中文字幕 | 久久久久久久久久久影院 | 日韩在线观看一区二区 | 国产成人精品av | 亚洲精品乱码久久久久久蜜桃动漫 | av五月婷婷 | 欧美视频99 | 天天操天天怕 | av黄在线播放| 欧美日韩一区二区在线观看 | 在线观看免费av网站 | 一区二区三区高清在线观看 | 日韩精品一区二区三区外面 | 亚洲视频999 | 国产精品涩涩屋www在线观看 | 国产黄a三级三级三级三级三级 | 中文字幕国产亚洲 | 成年人免费看片 | 看黄色.com | 天天人人 | 日本在线观看视频一区 | 日本在线中文在线 | 97成人在线 | 97视频免费观看 | 成人av一级片 | 高清有码中文字幕 | 免费日韩在线 | 久久网站免费 | 999国内精品永久免费视频 | 国产尤物一区二区三区 | 久久久久免费看 | 亚洲综合在线发布 | 亚洲精欧美一区二区精品 | 国产97色 | 成年人免费看av | 国产精品乱看 | 日韩中文字幕第一页 | 免费看日韩 | 中文字幕在线播放日韩 | 婷婷深爱五月 | 色哟哟国产精品 | 欧美日韩免费网站 | 在线观看国产成人av片 | 少妇高潮冒白浆 | 国产亚洲精品电影 | 激情欧美一区二区三区 | 黄色亚洲免费 | 亚洲影音先锋 | 国产在线观 | 婷婷视频导航 | 国产亚洲欧美在线视频 | 天天综合天天做天天综合 | 国产涩图| 成年人在线免费视频观看 | 欧美精品九九99久久 | 日韩欧美在线一区二区 | 国产一级片直播 | 亚洲欧美在线视频免费 | 一区二区三区中文字幕在线 | 97在线观看视频 | 国产色道| 欧美国产日韩中文 | 九草视频在线 | 在线天堂中文www视软件 | 黄色片视频在线观看 | 97超碰成人 | 毛片在线播放网址 | 日韩肉感妇bbwbbwbbw | 午夜精品视频一区二区三区在线看 | 久草爱 | 激情av网址 | 91精品啪啪 | 国产香蕉97碰碰久久人人 | 亚洲欧洲中文日韩久久av乱码 | 亚洲专区在线 | 国产超碰在线观看 | 欧美久久久一区二区三区 | 久草97| 国产精久久久久久妇女av | 亚洲精品在线视频观看 | 久久激情婷婷 | 91九色视频观看 | 久久精品欧美日韩精品 | 久久久久久毛片 | 欧美日韩免费在线视频 | 日韩一区二区免费视频 | 福利在线看片 | 三级黄色a| 日韩在线观看不卡 | 国产成人av一区二区三区在线观看 | 热re99久久精品国产66热 | 四虎在线永久免费观看 | 国产人成精品一区二区三 | 精品视频在线免费观看 | 91亚洲视频在线观看 | 五月综合色婷婷 | 激情久久网 | 午夜精品久久久久久久99水蜜桃 | 久99久精品视频免费观看 | 69国产精品成人在线播放 | 蜜臀aⅴ国产精品久久久国产 | 成人午夜电影在线 | 免费男女羞羞的视频网站中文字幕 | 999久久久免费视频 午夜国产在线观看 | av大全在线观看 | 婷婷在线看 | 久久久伊人网 | 国产精品综合av一区二区国产馆 | 国产精品女人网站 | 久久成人免费电影 | av黄色在线观看 | 最近能播放的中文字幕 | 国产成人在线综合 | 爱爱一区 | 波多野结衣视频一区二区 | 国产黄色av网站 | 午夜免费福利片 | 天天看天天干天天操 | 久久久久久久99精品免费观看 | 中文字幕乱在线伦视频中文字幕乱码在线 | 久久99精品国产一区二区三区 | 国产视频精品久久 | 天天激情天天干 | 成人一级片免费看 | 日韩中文字幕免费电影 | 麻豆传媒在线免费看 | 色插综合| 国产福利电影网址 | 中文字幕在线看 | 91免费看黄 | 亚洲成av | 国产精品视频观看 | 国产精品毛片一区二区三区 | 免费十分钟 | 国产在线国偷精品产拍免费yy | 激情一区二区三区欧美 | 91免费视频网站在线观看 | 狠狠地操| 国产首页 | 日本aaa在线观看 | 久久免费看 | 九草视频在线观看 | 人人澡人人爽 | 欧美一级大片在线观看 | 国产69久久久| 欧美日韩在线免费观看 | 亚洲视频456 | 亚洲国产网址 | 天堂va欧美va亚洲va老司机 | 日韩视频中文字幕 | 欧美一级视频一区 | 三级小视频在线观看 | 亚洲女人av | 探花视频在线观看免费版 | 亚洲天堂免费视频 | 亚洲人成免费网站 | 欧美一级片播放 | 天天天天天天天天操 | 国产一级不卡视频 | 不卡精品视频 | 伊人射 | 天天操天天干天天爽 | 狠狠操电影网 | 欧美在线视频一区二区三区 | 国产亚洲免费的视频看 | av免费在线观看网站 | 五月婷婷爱| 欧美91精品久久久久国产性生爱 | 国产精品久久久久久一区二区 | 日韩欧美观看 | 2020天天干天天操 | 日韩欧美国产成人 | 欧美日韩免费在线观看视频 | 亚洲黄色av网址 | 成 人 黄 色视频免费播放 | 国产在线看 | 精品在线播放视频 | 6080yy精品一区二区三区 | 国产高清第一页 | 亚洲第一中文字幕 | 日韩精品在线免费观看 | 三级黄色大片在线观看 | 99精品免费久久久久久久久日本 | 国产精彩视频一区二区 | 91精品一区国产高清在线gif | 五月婷婷婷婷婷 | 91中文字幕在线 | 性色大片在线观看 | 亚洲成人资源网 | 久久精视频 | 五月激情六月丁香 | 一区二区激情 | 999久久久免费精品国产 | 欧美日韩中文字幕综合视频 | 国产69精品久久99不卡的观看体验 | 国产在线第三页 | 精品欧美一区二区精品久久 | 日韩免费在线观看视频 | 国产一区二区三区免费观看视频 | 日韩欧美在线影院 | 二区中文字幕 | av播放在线 | 99久久久成人国产精品 | 97国产情侣爱久久免费观看 | 看污网站 | 日韩精品一区二区三区不卡 | 国产精品2020 | 欧美综合久久 | 婷婷午夜天 | 亚洲天堂色婷婷 | 97国产大学生情侣酒店的特点 | 日韩欧美视频在线播放 | 91在线视频在线观看 | 丁香花在线视频观看免费 | 91麻豆精品国产自产在线游戏 | 国产精品毛片久久蜜 | 久久精品免费播放 | 国模精品在线 | 国产一级久久 | 日韩a在线播放 | 91久久国产自产拍夜夜嗨 | 国产只有精品 | 狠狠躁夜夜躁人人爽视频 | 婷婷六月在线 | 91成人精品一区在线播放69 | 一区二区激情 | 亚洲成人二区 | 在线观看av不卡 | 欧美日本日韩aⅴ在线视频 插插插色综合 | av网站手机在线观看 | 国产原创在线观看 | 91视频88av| 色婷婷综合久久久 | 永久免费看av | 91精品电影 | 91视频中文字幕 | 国产精品国产三级国产aⅴ入口 | 欧美一区二区在线免费观看 | 视频直播国产精品 | 五月天久久狠狠 | 91精品国产入口 | 国外调教视频网站 | 综合色综合 | 日韩亚洲国产精品 | 免费观看日韩av | 国产高清精| 精品夜夜嗨av一区二区三区 | 69久久夜色精品国产69 | 亚洲精品免费看 | 久久99视频免费观看 | 欧美一区二区在线 | 区一区二区三区中文字幕 | 中文字幕第一页在线视频 | 久久免费在线观看 | 国产精品久久久久久久久婷婷 | 国产精品久久久久亚洲影视 | 免费观看午夜视频 | 天海冀一区二区三区 | 人人爱人人射 | 69热国产视频| 亚洲永久精品国产 | 激情综合网天天干 | 在线v片| 激情网在线观看 | 国产成人在线一区 | aa一级片 | 小草av在线播放 | 精品国产一区二 | 国产欧美最新羞羞视频在线观看 | 亚洲视频精选 | 亚洲综合成人婷婷小说 | 国产一区二区三区免费视频 | 麻豆视频免费在线观看 | 午夜黄色一级片 | 国产一区二区三区高清播放 | 人人澡澡人人 | 国产99久久久精品视频 | 亚洲爱视频| 日韩在线一区二区免费 | 久草资源免费 | 高清免费在线视频 | 国产精品区一区 | 高清av在线免费观看 | 国产a免费| 香蕉视频国产在线观看 | 免费91麻豆精品国产自产在线观看 | 久久精品一区二区三区中文字幕 | 亚洲视频999 | 天天操一操 | av夜夜操| 亚洲国产精品小视频 | 国产一区二区在线观看免费 | 国产高清第一页 | 中文字幕在线观看视频免费 | 国产伦精品一区二区三区四区视频 | 97人人澡人人爽人人模亚洲 | 在线观看韩日电影免费 | 午夜私人影院 | 97日日碰人人模人人澡分享吧 | 九九在线免费视频 | 天天射天天干 | 狠狠狠狠狠狠 | japanesexxx乱女另类 | 在线观看一区二区精品 | av在线日韩| 亚洲人成人在线 | 亚洲国产视频网站 | 国产一级大片免费看 | 9999国产精品 | 久久夜夜操| 中文字幕视频一区二区 | 日韩1页 | 九九久久免费视频 | 久久男人中文字幕资源站 | 99视频精品全国免费 | 丰满少妇麻豆av | 黄色资源在线观看 | 欧美性视频网站 | 国产一级在线观看视频 | 国产乱对白刺激视频在线观看女王 | 91完整版观看 | 97在线免费视频观看 | 国产精品99久久久久久久久久久久 | 国产亚洲一区二区三区 | 韩国精品在线观看 | 蜜桃视频日本 | 久草观看视频 | 欧美韩日在线 | 日韩在线观看高清 | 亚洲国产wwwccc36天堂 | 青青河边草观看完整版高清 | 国产亚洲一区二区在线观看 | 国产精品麻豆一区二区三区 | 亚洲国产中文字幕在线 | 亚洲国产午夜精品 | 日批视频国产 | 亚洲一区二区三区miaa149 | 黄色大全视频 | 国产一级特黄电影 | 日韩在线精品一区 | 色婷婷狠狠 | 国产韩国日本高清视频 | 国产无区一区二区三麻豆 | 欧美日韩午夜爽爽 | 亚洲精品免费观看视频 | 亚洲国产人午在线一二区 | 成人午夜电影久久影院 | 激情五月在线视频 | 日韩精品久久久久 | 国产日韩中文字幕 | 黄色在线观看www | 欧美二区在线播放 | 日本一区二区不卡高清 | 亚洲午夜精品久久久 | 欧美色婷 | 中文字幕亚洲情99在线 | 亚洲精品小区久久久久久 | 男女啪啪免费网站 | 免费人成在线观看 | 久久精品一二三区白丝高潮 | 国产一级特黄毛片在线毛片 | 欧美五月婷婷 | 久久久福利影院 | 9999精品 | 激情伊人五月天久久综合 | 国产精品一区二区免费看 | 久久久激情网 | 国产麻豆精品在线观看 | 久久这里只有精品9 | 成人午夜黄色影院 | 国产高清日韩 | 一区二区激情视频 | av中文字幕在线观看网站 | 综合色影院 | 九九视频在线播放 | 欧美日韩国内在线 | 亚洲成a人片综合在线 | 91黄色在线视频 | 久久久久久久久久久综合 | 婷婷视频在线播放 | 久久99视频免费观看 | 日韩在线不卡 | 久久久久免费精品国产 | 中文字幕超清在线免费 | 亚洲日本在线一区 | 久久高清免费 | 精品在线观看一区二区 | 一区二区三区日韩精品 | 91精选| 亚洲精品白浆高清久久久久久 | 日韩欧美黄色网址 | 99草视频在线观看 | 日韩综合一区二区三区 | 18国产精品福利片久久婷 | 999久久国精品免费观看网站 | 五月婷婷操 | 久久黄色免费视频 | 在线观看黄污 | 久久99精品国产91久久来源 | 亚洲 欧美 日韩 综合 | 一级黄网| 欧美网站黄色 | 97成人啪啪网 | 一区中文字幕电影 | 人人爽人人舔 | 91精品视频导航 | 中文字幕网址 | 中文在线www| 免费在线观看a v | 美女视频黄在线观看 | 国产成人一区二区在线观看 | 久久伊人操 | 高清国产午夜精品久久久久久 | 欧美精品在线观看 | 天无日天天操天天干 | 热久久免费视频精品 | 国产 日韩 中文字幕 | 亚洲综合色av | 精品国产一区二区三区日日嗨 | 久久久久欠精品国产毛片国产毛生 | 国产少妇在线观看 | 黄色的网站在线 | 狠狠狠色丁香综合久久天下网 | 久久天天躁夜夜躁狠狠躁2022 | 国产精品黄色在线观看 | 国产成人av | 久久国产欧美日韩 | 国产一区久久 | 久久久久免费 | av在线免费在线观看 | 久久久久久久电影 | 免费一级片在线观看 | 国产黄色片免费看 | 婷婷在线色| 亚洲一级片在线观看 | 日日操操操 | 91久久精品一区二区三区 | 色综合久久久网 | 免费高清在线一区 | 丰满少妇在线观看 | 成片免费观看视频 | 98福利在线 | 91av视频网站 | 亚洲激情在线观看 | 国产黄色一级片 | 久久久999免费视频 日韩网站在线 | 中文字幕a在线 | 欧美一区二区在线免费看 | 国语精品久久 | 国产无套精品久久久久久 | 日本精品中文字幕在线观看 | 国产三级视频在线 | 色播五月激情五月 | 精品一区二区精品 | 美女视频黄免费 | 女女av在线 | 国产精品国产三级在线专区 | 午夜久久福利影院 | 黄色大片入口 | 国产四虎在线 | 亚洲一级片免费观看 | 夜夜躁日日躁狠狠躁 | 成人91在线 | 亚洲 欧美变态 另类 综合 | 草久久精品 | 亚洲精品免费观看视频 | 国产亚洲欧美精品久久久久久 | 日韩,精品电影 | 日韩欧美在线一区二区 | 激情av一区二区 | 麻豆传媒视频观看 | 久久爱992xxoo | 韩国精品在线观看 | 一区二区三区福利 | 4p变态网欧美系列 | 青青久草在线视频 | 超碰人人乐 | 水蜜桃亚洲一二三四在线 | 免费看国产精品 | 国产尤物一区二区三区 | 日韩欧美视频 | 国产午夜激情视频 | 国产精品美女久久久网av | 99精品视频99 | 久草久视频 | 中文字幕在线免费看 | 国产a级片免费观看 | 久操视频在线观看 | 国产91丝袜在线播放动漫 | 亚洲综合激情网 | 亚洲精品午夜久久久久久久久久久 | 日韩最新中文字幕 | 亚洲精品乱码久久久久 | 欧美地下肉体性派对 | 天天色综合三 | 不卡视频国产 | 亚洲另类视频在线观看 | 五月婷婷香蕉 | 久久久精品视频网站 | 91你懂的| 国产一级在线播放 | 国产精品成久久久久 | 97品白浆高清久久久久久 | 一区在线观看 | 色妞色视频一区二区三区四区 | 91久久国产露脸精品国产闺蜜 | 四虎www| 玖玖玖在线观看 | 国产精品成人免费 | 黄色一区二区在线观看 | 手机在线免费av | 99视频精品免费视频 | 亚洲视频播放 | 日韩在线观看一区二区 | 国产伦理久久精品久久久久_ | 特级毛片网 | 在线观看免费一级片 | 亚洲成熟女人毛片在线 | 四川妇女搡bbbb搡bbbb搡 | 天堂在线成人 | 99视频久久 | 国产精品理论在线观看 | 欧美国产大片 | 91免费高清视频 | 日日摸日日碰 | 在线观看网站黄 | 国产亚洲精品久久久久秋 | 狠狠激情中文字幕 | 久久人人爽人人 | 日韩欧美高清在线观看 | 欧美精品国产精品 | 精品99免费视频 | 最新av在线播放 | 一区免费在线 | 亚洲精品99久久久久久 | 在线观看香蕉视频 | 九九热在线观看 | 欧美极品裸体 | 性色av免费观看 | 97超级碰碰碰视频在线观看 | 美女视频黄免费网站 | 免费色视频网址 | 欧美精品在线视频观看 | 婷婷久久亚洲 | 久久人人爽人人爽人人片av免费 | 日韩美一区二区三区 | 男女拍拍免费视频 | 亚洲激情免费 | 444av| 国产91勾搭技师精品 | 国产精品99久久久精品免费观看 | 国产在线更新 | 久久国产精品99国产精 | 一区二区激情视频 | 久久只精品99品免费久23小说 | 国产精品亚洲人在线观看 | 人人澡人摸人人添学生av | 日韩在线视频网 | 国产三级久久久 | 永久免费精品视频网站 | 国产欧美久久久精品影院 | av电影免费 | 日韩欧美在线中文字幕 | 狠狠操在线 | 国产精美视频 | 东方av在线免费观看 | 黄色三级av | 日韩在线视频观看免费 | 伊人夜夜| 999久久精品 | 热久久这里只有精品 | 久久免费大片 | 91黄视频在线观看 | 欧美福利在线播放 | 99九九热只有国产精品 | 亚洲视频一区二区三区在线观看 | 亚洲成av人片在线观看香蕉 | 色婷婷av一区| 欧美精品在线观看一区 | 97视频成人| 91在线视频观看免费 | 狠狠躁夜夜躁人人爽超碰97香蕉 | 久久爱综合 | 伊人影院av | 日韩欧美在线中文字幕 | 美女在线观看av | 午夜视频色 | 国产精品1区2区 | 69视频永久免费观看 | 在线视频 影院 | 国产成人香蕉 | 久久久久久久av | 日本精品一区二区三区在线观看 | 久久精品一二区 | 中文字幕日韩精品有码视频 | 丁香九月激情综合 | 精品黄色在线 | 久久综合欧美 | 日韩在线视频观看 | 亚洲美女精品 | 精品国产伦一区二区三区 | 有码一区二区三区 | 久99久中文字幕在线 | 一本—道久久a久久精品蜜桃 | 在线观看视频免费播放 | 色婷婷av一区| 91视频免费国产 | 五月婷婷伊人网 | 亚洲不卡在线 | 在线观看免费 | www免费看 | 欧美国产不卡 | 免费在线看v | 中文字幕网站 | 国产一区在线免费 | av综合在线观看 | 91免费版成人 | 国产成人一区二区三区影院在线 | 五月天丁香视频 | 成人在线免费视频 | 日韩三级.com | 深夜免费福利 | 又污又黄网站 | 少妇视频在线播放 | 婷婷深爱激情 | 久久综合9988久久爱 | 久久国产精品视频免费看 | 日韩理论电影在线观看 | 色婷婷婷| 狠狠色丁香婷婷综合视频 | 国产精品123 | 国产亚洲精品久久网站 | av在线播放不卡 | 久久激五月天综合精品 | 91桃色在线播放 | 17videosex性欧美 | 麻豆传媒电影在线观看 | 亚洲精品在线视频观看 | 免费黄色av. | 久久久国产精品电影 | 国产精品毛片久久久 | 91看片在线播放 | 精品久久久久一区二区国产 | 日韩毛片精品 | 日日天天 | www.久久精品视频 | 成 人 黄 色视频免费播放 | 久久久免费国产 | 国产成人资源 | 91香蕉视频黄 | 久久精品亚洲 | 五月婷婷中文字幕 | 婷婷香蕉 | 成人av电影免费在线观看 | 日本中文字幕在线视频 | 六月丁香在线视频 | 视频在线观看99 | 97视频在线免费观看 | 国产免费视频在线 | 亚洲九九九在线观看 | 国产精品视频免费 | 深爱激情久久 | 欧美日韩在线观看一区二区 | 亚洲欧美日韩国产一区二区 | 成人午夜免费福利 | 色综合久久中文综合久久牛 | 午夜123| 日韩电影在线看 | 国产在线一区二区三区播放 | 黄色的网站免费看 | www.天堂av | 日本在线观看一区二区三区 | 波多野结衣小视频 | 久久久久久久久网站 | 久久超级碰 | 日本高清xxxx | 免费在线观看国产精品 | 国产精品一区在线观看你懂的 | 在线看成人片 | 精品一二三四在线 | 色婷久久| 色播激情五月 | 久久精品久久久精品美女 | 国产亚洲一级高清 | 亚洲日本欧美 | 夜色资源站国产www在线视频 | 91av原创| 国产aaa免费视频 | 亚洲成av人片在线观看无 | 婷婷激情小说网 | 精品国产乱子伦一区二区 | aa级黄色大片 | 中文字幕在线资源 | 国产黄色大片 | 97成人精品视频在线观看 | 亚洲精品ww | 亚洲黄色免费网站 | 97超碰资源 | 日韩欧美在线视频一区二区三区 | 成人av免费在线观看 | 99久久99视频 | 免费网站在线观看人 | 亚洲天堂香蕉 | 久久试看 | 久久综合婷婷国产二区高清 | 香蕉久久国产 | 国产人免费人成免费视频 | 日韩精品一区二区三区视频播放 | 中文字幕亚洲在线观看 | 97香蕉久久国产在线观看 | 正在播放国产精品 | av一区二区三区在线 | 五月婷婷综合在线视频 | 在线精品视频在线观看高清 | 日韩羞羞 | 人人要人人澡人人爽人人dvd | 波多野结衣视频一区 | 久久99精品视频 | 中文在线中文a | 欧美二区三区91 | 亚洲精品久久在线 | 日本不卡123 | 免费在线成人av | 精品久久久久久久久久久久 | 青草视频在线播放 | 国产精品视频在线观看 | 99亚洲视频 | 免费视频区 | 在线免费观看视频你懂的 | 在线观看免费视频你懂的 | 国产精品青草综合久久久久99 | 国产黄色大片免费看 | 婷婷综合 | a级国产片| 欧美大片在线观看一区 | 日韩电影中文字幕在线观看 | 99精品小视频 | 亚洲狠狠婷婷综合久久久 | 国产精品爽爽久久久久久蜜臀 | 五月天最新网址 | 婷婷综合成人 | 最近最新最好看中文视频 | 成人黄在线观看 | 激情导航 | 成人黄色av网站 | 免费三级影片 | 九九免费精品视频 | 国产原创91 | 欧美日本不卡视频 | 99视频网址 | 99国产情侣在线播放 | 中文字幕在线观看第一区 | 伊人影院在线观看 | 中文字幕高清有码 | 国产精品久久精品国产 | 成人a免费 | 黄色看片| 中文字幕免费在线 | 很黄很污的视频网站 | 亚洲第一av在线 | 国产精久久久 | 久久国产三级 | 久草a在线| 成人丁香花 | 欧美在线视频免费 | 日韩国产精品一区 | 久久精品免费 | 国产成人高清av | 国产精品二区三区 | 人人添人人 | 麻豆视频网址 | 91视频久久 | 久久五月婷婷丁香社区 | 天天操天天操天天操天天操 | 五月天激情电影 | 日本在线视频一区二区三区 | 久影院 | 天天爽夜夜爽精品视频婷婷 | 国产资源在线视频 | 色a资源在线 | 丁香婷婷色综合亚洲电影 | 一级黄色在线视频 | 人人射人人 | 婷婷色网视频在线播放 | 成人一级片在线观看 | 日韩精品久久久久久中文字幕8 | 亚洲视频久久久 | 色香网| 成人网色| 欧美另类xxxx | 午夜精品视频一区二区三区在线看 | 日韩欧美一区二区三区黑寡妇 | 粉嫩高清一区二区三区 | 亚洲日本精品视频 | 久久视了 | 91在线视频免费播放 | 久久激情网站 | www.伊人网| 午夜电影av | 91系列在线 | 欧美日韩精品在线播放 | 国产在线最新 | 天天干天天干天天射 | 亚洲美女在线国产 | 一级欧美黄 | 久人人| 国内精品在线观看视频 | 国产精品一区二区久久精品 | 日韩在线精品一区 | 国产一线在线 | 日韩在线观看视频一区二区三区 | 久操中文字幕在线观看 | 成片免费观看视频大全 | 91精品久久久久久综合乱菊 | 国产精品第72页 | 超碰最新网址 | 在线观看www91 | 香蕉免费在线 | 国产99re| 久久久久综合视频 | 黄色影院在线免费观看 | 亚洲国产三级在线 | 久久男女视频 | 久久综合精品一区 | 国产精品99久久久久的智能播放 | 免费人成在线观看网站 | 91丨porny丨九色| 国产不卡免费 | 欧美性爽爽 | 成人在线网站观看 | 超级碰视频 | 国产成人精品网站 | 天天色天天综合 | 亚洲日韩中文字幕 | 成人av高清 | 欧美精品天堂 | 亚洲综合视频在线 | 日韩免费视频网站 | 日本午夜在线亚洲.国产 | 丰满少妇在线 | 亚洲一级片免费观看 | 人人澡人摸人人添学生av | 九九在线视频免费观看 | 日韩在线视频网 | 午夜电影久久久 | 国产大片黄色 | 国产精品一区二区久久 | 成人黄色片免费 | 国内精品久久久久影院日本资源 | 欧美午夜精品久久久久久孕妇 | 超碰在线公开 | 婷婷六月综合网 | 看片网站黄色 | 亚洲精品免费在线播放 |