日韩av黄I国产麻豆传媒I国产91av视频在线观看I日韩一区二区三区在线看I美女国产在线I麻豆视频国产在线观看I成人黄色短片

歡迎訪問 生活随笔!

生活随笔

當前位置: 首頁 > 编程资源 > 编程问答 >内容正文

编程问答

[转] 机器学习那些事儿

發布時間:2025/3/20 编程问答 31 豆豆
生活随笔 收集整理的這篇文章主要介紹了 [转] 机器学习那些事儿 小編覺得挺不錯的,現在分享給大家,幫大家做個參考.

原文為發表于Communications of the ACM 2012年第10期的“A Few Useful Things to Know About Machine Learning”,雖然發表于2012年,但是作者提出的觀點對于今天仍有很多借鑒意義。

作者:佩德羅·多明戈斯(Pedro Domingos)
譯者:劉知遠

? ? ? ?機器學習系統自動地從數據中學習程序。與手工編程相比,這非常吸引人。在過去的?20?年中,機器學習已經迅速地在計算機科學等領域普及。機器學習被用于網絡搜索、垃圾郵件過濾、推薦系統、廣告投放、信用評價、欺詐檢測、股票交易和藥物設計等應用。麥肯錫全球研究院(?the McKinsey Global Institute)最近一份報告指出,機器學習(又稱數據挖掘或者預測分析)將驅動下一輪創新?[15]。現在已經有幾本優秀的機器學習教材書可以供感興趣的研究者和實踐者使用(例如米切爾(?Mitchell?)和維滕(?Witten?)等人的教材?[16,24])。但是,成功使用機器學習所應掌握的大量“民間知識”并沒有出現在這些教材中。因此,很多機器學習項目浪費了大量時間,甚至最終也沒有得到理想的結果。其實這些“民間知識”非常容易理解。本文的目的就是介紹這些知識。

? ? ? 機器學習有許多不同的類型,但為了展示方便,本文將主要介紹其中最常用的類型:分類。但是,本文所探討的問題適用于所有的機器學習類型。一個分類器(classifier)是一個系統,系統輸入是一個包括若干離散或連續的特征值(feature values)的向量,系統輸出是一個離散值,代表分類的類別(class)。例如,一個垃圾郵件過濾器會將郵件信息分類到“是垃圾郵件”和“不是垃圾郵件”兩個類別中。它的輸入可以是一個布爾向量x = (x1…,xj,…,xd),其中如果詞典中的第j個詞出現在該郵件中,則xj=1,否則xj=0。一個學習器將一個訓練集(training set)樣例(xi,yi)作為輸入,其中xi?= (xi,1,…,xi,d)是觀察到的輸入,yi是相應的輸出,學習器的輸出是一個分類器。對學習器的檢驗就是判斷它輸出的分類器是否能夠對將來的輸入樣例xt輸出正確的yt(例如,垃圾郵件過濾器是否能夠將訓練時沒有見過的郵件信息正確分類)。

學習=表示+評價+優化

? ? ??假設有一個應用,你認為機器學習有可能在其中發揮作用。那么,你面臨的第一個問題是各種機器學習算法令人眼花繚亂。應挑選使用哪一個?現在有成千上萬的機器學習算法,每年還有成百上千的新算法發表出來。避免迷失在這么多算法中的關鍵是,要認識到這些算法都是由三個部分組成的,分別是:

? ?表示(Representation)一個分類器必須用計算機可以處理的某種形式語言來表示。反過來講,為學習器選擇一種表示,就意味選擇一個特定的分類器集合。學習器可能學出的分類器只能在這個集合中。這個集合被稱為學習器的假設空間(hypothesisspace)。如果某個分類器不在該空間中,它就不可能被該學習器學到。與此相關的一個問題是如何表示輸入,即使用哪些特征,本文稍后介紹。

???評價(Evaluation)?我們需要一個評價函數(亦稱為目標函數或打分函數)來判斷分類器的優劣。機器學習算法內部使用的評價函數和我們希望分類器進行優化的外部評價函數有所不同。這是為了便于優化,接下來會討論。

???優化(Optimization)最后,我們需要一個搜索方法,能夠在假設空間中找到評價函數得分最高的那個分類器。優化技術的選擇對學習器效率至關重要;而當
評價函數有多個最優結果時,優化技術也有助于從中選擇。初學者通常會采用現成的優化方法,之后再用定制專門的優化方法來替代。

??

? ? ??表1展示了三個組成部分常見的例子。例如,對一個測試樣例,k-近鄰方法會尋找它的k個最相似的訓練樣例,并將這些樣例中出現最多的類別作為該測試樣例的類別。超平面方法會為每一個類別構造一個特征的線性組合,并將得分最高的組合所對應的類別作為預測結果。決策樹方法會在樹上的每個內部節點測試一個特征,每個特征值會對應一個分支,而不同的葉子節點會對應不同的類別。算法1展示了一個極簡單的二分類決策樹學習器,其中使用了信息增益(information gain)和貪心搜索(greedy?search)[20]。InfoGain(xj, y)表示特征xj與類別y之間的互信息(mutual?information)。MakeNode(x,c0, c1)會返回一個測試特征x的節點,該節點以c0作為x=0時的孩子節點,以c1作為x=1時的孩子節點。?

? ? ? 當然,并不是表1中從各列選出元素的相互組合都同樣有意義。例如,離散表示很自然地與組合優化相結合;而連續表示則與連續優化相結合。然而,很多學習器同時包含離散和連續的部分。實際上,所有可能的組合也都快被實現過了。

? ? ? 大部分教科書是以表示為視角組織內容的。這通常會讓人忽略掉一個事實,即其他部分也同樣重要。雖然對如何在每個部分做出選擇并沒有簡單的秘訣,但本文將涉及其中幾個重要的問題。正如我們以后會看到的那樣,機器學習項目中的某些選擇甚至比學習器的選擇更加重要。

泛化(Generalization)很重要

? ? ??機器學習的基本目標是對訓練集合中樣例的泛化。這是因為,不管我們有多少訓練數據,在測試階段這些數據都不太可能會重復出現。(注意,如果在詞典中有100000個詞,前述垃圾郵件過濾器將會有種2100000種可能的不同輸入)。在訓練集上表現出色其實很簡單(只要記住這些訓練樣例即可)。機器學習初學者最常犯的錯誤是在訓練數據上做測試,從而產生勝利的錯覺。如果這時將選中的分類器在新數據上測試,它往往還不如隨機猜測準確。因此,如果你雇人來訓練分類器,一定要自己保存一些數據,來測試他們給你的分類器的性能。相反,如果你被人雇來訓練分類器,一開始就應該將一部分數據取出來,只用它們來測試你選擇的分類器性能,接下來再在整個數據上學習你最終的分類器。

? ? ? 你的分類器可能會在不知不覺中受到測試數據的影響,例如你可能會使用測試數據來調節參數并做了很多調節(機器學習算法有很多參數,算法成功往往源自對這些參數的精細調節,因此這是非常值得關注的問題)。當然,保留一部分數據用于測試會減少訓練數據的數量。這個問題可以通過交叉驗證(cross-validation)來解決:將訓練數據隨機地等分為若干份(如10份),其中的每一份均可用作測試,而剩下的數據用作訓練,然后將每個學習的分類器在它沒見過的樣例上進行測試,將測試結果取平均后,就可用來評價不同參數設置的性能。

? ? ? 在機器學習研究早期,劃分訓練和測試數據的必要性沒有受到廣泛重視。部分的原因是,如果學習器的表示很有限(比如超平面表示),則訓練誤差和測試誤差差別不大。但是對于比較靈活的分類器(比如決策樹),甚至擁有大量特征的線性分類器,則訓練和測試數據嚴格分開是非常必要的。

? ? ? 需要注意的是,將泛化作為目標給機器學習帶來一個有趣的結果。與其他大部分優化問題不同,機器學習無法獲得希望優化的那個函數!我們不得不用訓練誤差來代替測試誤差(作為目標函數),而這非常危險(如何處理這個問題稍后會介紹)。從積極的角度講,由于這個目標函數不過是真實目標的替身,我們也許沒有必要完全優化它;而實際上,通過簡單的貪心搜索返回的局部最優也許比全局最優更好。

僅有數據還不夠

? ? ??將泛化作為目標帶來的另外一個重要結果是,僅有數據還不夠,無論你有多少。考慮要從100萬樣例中學習一個包含100個變量的布爾函數。此時將有2100
-106?個樣例的類別是不知道的1。你如何確定那些樣例的類別呢?在沒有更進一步信息的情況下,除了拋硬幣隨機猜之外將束手無策。哲學家大衛·休謨(David Hume)在200多年前首次指出這一問題(以某種不同的形式),但直到今天機器學習中的很多錯誤仍是由于沒有意識到這一問題造成的。每個學習器都必須包含一些數據之外的知識或假設(assumption),才能夠將數據泛化。這一概念被沃爾伯特(Wolpert)形式化為“沒有免費的午餐”定理。根據該定理,沒有學習器能夠比在所有可能的布爾函數中隨機猜測的結果更優[25]。

? ? ? 這似乎是一個非常讓人失望的消息。那我們還能指望能學到什么東西嗎?幸運的是,在真實世界中,我們要學習的函數并非均勻地來自所有可能的函數!實際上,一些非常泛泛的假設——比如平滑(smoothness),相似的樣例有相似的類別,有限依賴,或者有限復雜度——通常足夠起很大作用,這也是機器學習能夠如此成功的重要原因。如同演繹(deduction)一樣,歸納(induction,正是學習器所做的)起到知識杠桿的作用——它將少量的輸入知識轉化成為大量的輸出知識。歸納是比演繹強大得多的杠桿,只要求很少的輸入知識就可以產生有用的結果,但是它終歸不能在沒有知識的情況下工作。而且就像任何杠桿一樣,輸入越多,我們得到的輸出就越多。

? ? ? 從中可以得到的一個推論是,選擇表示的關鍵標準之一是,它比較易于表達什么類型的知識。例如,如果我們擁有大量關于在我們的領域是什么造成樣例相似的知識,基于實例的方法也許就是合適的選擇。如果我們擁有概率依賴的知識,圖模型則比較適合。如果我們擁有每個類別要求的先決條件的知識,“If…Then…(如果…那么…)”規則的表示也許是最好的選擇。在這一點上,最有用的學習器是那些并非將假設固化在其中,而是允許我們用顯式規定假設,在大范圍改變假設,并自動將其體現在學習中(例如采用一階邏輯[21]或者語法[6])的學習器。

? ? ? 說到這里,學習需要知識,這并不讓人驚訝。機器學習不是魔術, 它無法憑空變出東西。它所做的是由少變多。編程就像所有的工程技術那樣,意味著大量的工作,必須從頭開始建造一切。而機器學習更像是種田,它讓大自然做大部分工作。農夫將種子與肥料混合種出莊稼。學習器將知識和數據結合“種出”程序。

過擬合(Overfitting)有多張面孔

? ??? 如果我們擁有的知識和數據并不足以學習出正確的分類器,將會怎樣呢?我們就得冒風險構建一個分類器(或者其中一部分),這個分類器并非建立在現實基礎上,而是將數據隨機表現加以解讀。這個問題稱為過擬合,它是機器學習中的棘手問題。當你的學習器輸出的分類器在訓練數據上準確率為100%,而在測試數據上僅有50%的時候(而本來可以學到一個分類器能夠在兩個數據上均達到75%的準確率),說明這個分類器發生過擬了。

? ? ??機器學習領域的每個人都了解過擬合,但過擬合會以多種并不明顯的形式出現。一種理解過擬合的方式是將泛化誤差(generalization error)分解為偏置(bias)和方差(variance)[9]。偏置度量了學習器傾向于一直學習相同錯誤的程度。方差則度量了學習器傾向于忽略真實信號、學習隨機事物的程度。圖1用朝板子扔飛鏢作為類比進行了直觀說明。一個線性學習器有較高的偏置,因為當兩個類別的交界不是超平面的時候,這個學習器就無法進行歸納。決策樹就不會有這個問題,因為它可以表示任意的布爾函數,但在另一方面,策樹會面臨高方差的問題:在同一現象所產生的不同訓練數據上學習的決策樹往往差異巨大,而實際上它們應當是相同的。類似道理也適用于優化方法的選擇上:與貪心搜索相比,柱搜索的偏置較低,但方差較高,原因是柱搜索會嘗試搜索更多的假設。因此,與直覺相反,一個學習能力更強的學習器并不見得比學習能力弱的效果更好。

? ? ??圖2示例說明了這一點2。即使真正的分類器是一個規則集合,但根據1000個樣例學習的樸素貝葉斯學習器仍比一個規則學習器的準確率更高。甚至當樸素貝葉斯錯誤地假設分類面是線性的,也依然如此。這種情形在機器學習領域很常見:一個強錯誤假設比那些弱正確假設更好,這是因為后者需要更多的數據才能避免過擬合。

? ? ? 交叉驗證可以幫助避免過擬合,例如通過交叉驗證來選擇決策樹的最佳大小。但這不能徹底解決問題,因為假如我們利用交叉驗證做太多的參數選擇,它本身就會開始過擬合[17]。

? ? ? 除了交叉驗證以外,還有很多方法可以避免過擬合。最常用的方法是對評價函數增加一個正則項(regularization term)。這樣做可以懲罰那些包含更多結構的分類器,偏好更小的分類器,從而降低過擬合的可能性。另一個方案是在決定是否增加新的結構時進行諸如卡方測試(chi-squre)等統計顯著性檢驗(statistical significance test),用來決定類別分布是否會因為增加這個結構而不同。當數據非常缺乏時,這些技術非常有用。然而,你應該對那些宣稱某項技術“解決”了過擬合問題的說法持懷疑態度。我們會很容易在避免過擬合(或者說“方差”)時,造成另外一個相反的錯誤——欠擬合(underfitting,或者說“偏置”)。要學習一個完美的分類器來同時避免過擬合和欠擬合,事先又沒有足夠知識,這種情形下沒有任何單一技術能夠總是表現最好(沒有免費的午餐)。

? ? ? 對過擬合的一個常見誤解是認為它是由噪音造成的,例如有些訓練樣例的標注類別是錯誤的。這的確會加劇過擬合,因為分類器會調整分類面讓那些樣例保持在分類器認為正確的一側。但是即使沒有噪音依然會發生嚴重的過擬合。例如,假如我們學習一個布爾類型分類器,它是訓練數據中所有標為“true”的樣例的析取(disjunction)。(換句話說,這個分類器是一個析取范式(disjunctive normal form)的布爾類型公式,其中每一項是某個特定訓練樣例的所有特征值的合取(conjunction)。)這個分類器對所有的訓練樣例都分類正確,但對測試樣例中的每個正例都分類錯誤,不管訓練數據是否有噪音。

? ? ? 多重檢驗(multiple testing)[13]問題與過擬合密切相關。標準的統計檢驗中只有一個假設被檢驗,而現代學習器在結束學習前會輕易地檢驗上百萬個假設。因此,那些看上去很顯著的結論實際并不如此。例如,一個連續十年跑贏市場的共同基金(mutualfund)看上去很引人注目。但當你發現,如果有1000家基金,每家都有50%的概率在某年跑贏市場,在這種情況下,極有可能會有一家基金能夠憑僥幸而連續10次都跑贏市場。這個問題可以通過在顯著性檢驗中將假設的個數考慮進去來解決,但這樣也會導致欠擬合。更好的途徑是控制錯誤接受的非零假設(non-nullhypotheses)的比率,該方法通常被稱為錯誤發現率(false discoveryrate)方法[3]。

直覺不適用于高維空間

? ? ??機器學習中緊接過擬合之后的最大問題就是維度災難(curse of dimensionality)。這一概念是由貝爾曼(Bellman)在1961年首先提出的,用來描述以下事實:許多在低維空間表現很好的算法,當輸入是高維度的時候,就變得計算不可行(intractable)了。但在機器學習領域,這有更多的意義。隨著樣例維度(即特征數目)的增長,正確泛化的難度會以指數級增加,原因是同等規模的訓練集只能覆蓋越來越少的輸入空間比例。即使對于中等大小的100維布爾空間,一個包含1萬億樣例的大型數據集合也只能覆蓋輸入空間的10-18左右3。這體現了機器學習存在的必要性,也是它的難點所在。

? ? ? 更嚴格地講,機器學習算法所(顯式或隱式)依賴的基于相似度的推理在高維空間不再有效。現在考慮一個采用漢明距(hamming distance)作為相似度度量的最近鄰分類器,并設定樣例的分類類別是x1∧x2。如果沒有其他特征,這是一個很容易的問題。但是當增加98個不相關的特征x3,…,x100的時候,來自這些特征的噪音會淹沒來自x1和x2的信號,導致所找到的最近鄰相當于做出隨機預測。

? ? ? 更多的困擾是,即使所有的100個特征都是相關的,最近鄰方法依然會有問題。這是因為在高維空間所有的樣例都變得很相似。例如,假設所有樣例分布在規則的網格上,現在考慮一個測試樣例xt。如果網格是d-維的,會有個2d個xt最近鄰樣例與xt的距離相等。因此,隨著維數的增加,越來越多的樣例會變成xt的最近鄰,以致最后最近鄰的選擇實際上變成隨機的(類別選擇也因此變成隨機的)。

? ? ? 這只是高維空間上更廣泛問題的一個實例。我們的來自三維世界的直覺在高維空間通常并不奏效。在高維空間,多元高斯分布(multivariate Gaussian distribution)的大部分質量(mass)并不分布在均值附近,而是在逐漸遠離均值的一層“殼”上;打個比方,一個高維的橘子的大部分質量不在瓤上,而是在皮上。如果數量一定的樣例均勻分布在一個(維數不斷增加的)高維的超立方體中,那么超出某個維數后,大部分樣例與超立方體的某一面的距離要小于與它們最近鄰的距離。如果我們在超立方體中內接一個超球面,那么超立方體的幾乎所有質量都會分布在超球面之外。這對機器學習是一個壞消息,因為機器學習常常用一種類型的形狀來近似另一種類型的形狀。

? ? ? 在二維或三維空間構建分類器很簡單,我們可以僅通過肉眼觀察發現不同類別樣例的分界線(甚至可以說,假如人們有在高維空間中觀察的能力,機器學習就沒有存在的必要了)。但是在高維空間中很難理解正在發生什么。因此也就很難設計一個好的分類器。人們也許會天真地認為收集更多的特征永遠不會有什么壞處,因為最壞的情況也不過是沒有提供關于類別的新信息而已。但實際上這樣做的好處可能要遠小于維度災難帶來的問題。

? ? ? 幸運的是,有一個效應可以在一定程度上抵消維度災難,那就是所謂的“非均勻性的祝福”(blessing of nonuniformity)。在大多數應用中,樣例在空間中并非均勻分布,而是集中在一個低維流形(manifold)上面或附近。例如在手寫體數字識別任務中,即使數字圖片的每個像素都單獨作為一個特征,近鄰方法在該任務上表現依然良好,這是因為數字圖片的空間要遠小于整個可能的空間。學習器可以隱式地充分利用這個有效的更低維空間,也可以顯式地進行降維(例如特南鮑姆(Tenenbaum)的工作[22])。

理論保證(Theoretical Guarantees)與看上去的不一樣

? ? ??機器學習論文充滿了理論保證。最常見的類型是能保證泛化所需樣例數目的邊界(bound)。你應當如何理解這些保證呢?首先,需要注意的是它們是否可行。歸納與演繹相反:在演繹中你可以保證結論是對的;在歸納中就難說了。這是很多世紀以來的普遍共識。最近幾十年的一個重要進展是我們認識到可以有歸納結果正確性的保證,特別是如果我們愿意接受概率保證。

? ? ? 基本論證非常簡單[5]。如果一個分類器的真實錯誤率(true error rate)大于ε,我們稱該分類器是壞的。那么一個壞分類器在n 個隨機獨立訓練樣例上都保持正確的概率小于 。設b是學習器的假設空間H中壞分類器的個數,其中至少有一個分類器能保持正確的概率小于b ( 1-ε)?n,即謂“一致限(union?bound )”。假設學習器返回的都是保持正確的分類器,那么這個分類器是壞的概率小于|H |( 1 -ε)n,這里我們利用了b ≤|H |這個實。所以,如果我們希望這個概率小于δ的充分條件是使n >1/ε(l n|H |+l n1/δ)≥ln(δ/|H |)/ln(1-ε)4

? ? ? 不幸的是,對這類保證得十分小心。這是因為通過這種方式獲得的邊界往往非常松散(loose)。這種邊界的突出優點是所要求的樣例數目只隨|H |和1/δ 呈對數增長。但遺憾的是,大多數假設空間是隨著特征數目呈雙指數級增長的,這就要求我們提供的樣例數目d 也隨著呈指數增長。例如,考慮包含d 個布爾變量的布爾類型函數空間。如果有e 個可能不同的樣例,就會有2e個可能不同的函數。因此,由于有2d個可能的樣例,函數總數達到個 。即使對“僅僅”為指數級的假設空間,這個邊界仍然很松,因為一致限非常保守。例如,如果有100個布爾特征,假設空間是層數最多為10的決策樹,為了保證δ=ε=1%,我們需要50萬個樣例。但實際上,只需要其中的一小部分數據就足以精確學習了。

? ? ? 而且,我們必須留意邊界所包含的意義。例如,邊界并不意味著,假如你的學習器返回了一個在某個特定訓練集上保持正確的假設,這個假設就可能實現了泛化。邊界的意思是,給定一個足夠大的訓練集,告訴你在很大的概率上你的學習器會返回一個成功泛化的假設,還是無法找到一個保持正確的假設。這個邊界也無法告訴我們如何選擇好的假設空間。它只能告訴我們,如果這個假設空間包含真實分類器,那么學習器輸出一個壞分類器的概率隨著訓練數據規模的增長而降低。如果我們縮小假設空間,邊界就會得到改善,但是空間包含真實分類器的幾率也降低了(在真實分類器不在假設空間中的情況下也會有邊界,以上討論同樣適用)。

? ? ? 另一類常用理論保證是漸進(asymptotic):給定無窮據,學習器將保證輸出正確的分類器。這個保證讓人欣慰,但如果只是因為有漸進保證而選擇一個分類器則是非常草率的。在實踐中,我們很少處于漸進狀態(或稱為漸進態(asymptopia))。而且,由于我們前面探討過的偏置-方差的權衡(trade-off),如果對無窮數據,學習器A比學習器B好,那么在有限數據的情況下B通常比A好。

? ? ? 機器學習中理論保證的主要作用并不是在實踐中作為決策的標準,而是在算法設計中作為理解和驅動的來源。在這方面,它們作用巨大;實際上,理論與實踐的緊密結合是機器學習在過去幾年中取得重大進展的重要原因。但是使用者需要謹慎:學習是一個復雜現象,因為一個學習器既有理論證明又有實際應用,而前者并未成為后者的依據。

特征工程(Feature Engineering)是關鍵

? ? ??在考慮所有情況之后,有的機器學習項目成功了而有的則失敗了。這是什么原因造成的呢?無疑最重要的因素是所利用的特征。如果你有很多與類別非常相關的獨立特征,學習起來很容易。但另一方面,如果特征與類別的關系非常復雜,你就不一定能夠學到它了。通常原始數據不能直接拿來學習,你需要從中構建特征。這是機器學習項目的主要工作。這通常也是最有趣的部分,在這里直覺、創造性和魔法與技術一樣都很重要。

? ? ? 初學者往往驚訝于機器學習項目中真正用于機器學習的時間是如此之少。但假如你考慮到對數據的收集、整合、清理和預處理是多么費時,以及特征設計需要經歷多少試驗和錯誤,就會理解這個過程了。還有,機器學習無法做到一次性就能完成構建數據集合和運行學習器,它是一個反復迭代的過程,包括運行學習器,分析結果,修改數據和/或學習器等,不斷重復。學習往往是這其中最快完成的部分,原因在于我們已經非常精通它了!特征工程更加困難,原因是它是領域相關(domain-specific)的,而學習器則很大程度是通用的。不過,兩者并沒有明確界限,這也是最有用的學習器往往是那些有助于融入領域知識的學習器的原因之一。

? ? ? 當然,機器學習的一個終極目標就是將特征工程過程越來越多地自動化。現在經常采用的一種方式是先自動產生大量的候選特征,然后根據它們與分類類別的信息增益等方法來選取最好的特征。但需要牢記在心的是,特征獨立地看也許與分類無關,但組合起來也許就相關了。例如,如果分類類別是取個輸入k 個特征的“XOR(異或)”,那么每個特征單獨看都與分類沒有關系(如果你想給機器學習找點亂子,就祭出XOR來吧)。但是,運行包含大量特征的學習器來尋找有用的特征組合太耗時,也容易導致過擬合。因此,歸根到底你仍需責無旁貸地介入特征工程的工作。

更多的數據勝過更聰明的算法

? ??? 假設你已經盡你所能構建了最好的特征集合,但分類器的效果仍不夠好,這時候應該怎么辦呢?有兩個主要選擇:設計更好的學習算法,或者收集更多數據(包括更多的樣例和不致造成維度災難的更多可能的原始特征)。機器學習研究者更關注前者,但從實用角度來看,最快捷的方法是收集更多數據。作為一條經驗,有大量數據的笨算法要勝過數據量較少的聰明算法。(畢竟,機器學習就是研究如何讓數據發揮作用的。)

? ? ? 然而這帶來了另外一個問題:可擴展性(scalability)。在絕大多數計算機科學問題中,兩個主要資源是有限的——時間和內存。而在機器學習中,還有第三個:訓練數據。其中哪一個資源會成為瓶頸是隨著時間變化而不斷變化的。在20世紀80年代,瓶頸是數據。現在的瓶頸則是時間。我們有海量數據,但沒有足夠的時間處理它們,只能棄之不用。這就造成一個悖論:即使理論上說,更多數據意味著我們可以學習更復雜的分類器,但在實踐中由于復雜分類器需要更多的學習時間,我們只能選用更簡單的分類器。一個解決方案是對復雜分類器提出快速學習算法,在這個方向上已經有了一些引人注目的進展(例如赫爾滕(Hulten)和多明戈斯(Domingos)的工作[11])。

?

? ? ??采用更聰明的算法得到的回報比預期要少,一部分原因是,機器學習的工作機制基本上是相同的。這個論斷也許讓你吃驚,特別是當你想到諸如規則集與神經網絡之間差異巨大的表示方法的時候。但實際上,命題規則的確可以輕易地表示成神經網絡,其他表示之間也有類似的關系。本質上所有的學習器都是將臨近的樣例歸類到同一個類別中;關鍵的不同之處在于“臨近”的意義。對于非均勻分布的數據,不同的學習器可以產生迥乎不同的分類邊界,同時仍能在關心的領域(即那些有大量訓練樣例、測試樣例也會有很大概率出現的領域)保證得到相同的預測結果。這也有助于解釋為什么能力強的學習器雖然不穩定卻仍然很精確。圖3在二維空間展示了這一點,在高維空間這個效應會更強。

? ? ? 作為一條規則,首先嘗試最簡單的學習器總是有好處的(例如應該在邏輯斯蒂回歸之前先嘗試樸素貝葉斯,在支持向量機之前先嘗試近鄰)。更復雜的分類器固然誘人,但它們通常比較難駕馭,原因包括我們需要調節更多的參數才能得到好的結果,以及它們的內部機制更不透明。

? ? ? 學習器可以分為兩大類:一類的表示是大小不變的,比如線性分類器;另一類的表示會隨著數據而增長,比如決策樹。(后者有時候會被稱為非參數化學習器(nonparametric learners),但不幸的是,它們通常需要比參數化學習器學習更多的參數。)數據超過一定數量后,大小不變的學習器就不能再從中獲益。(注意圖2中樸素貝葉斯的準確率是如何逼近大約70%的。)而如果有足夠的數據,大小可變的學習器理論上可以學習任何函數,但實際上卻無法做到。這主要是受到算法(例如貪心搜索會陷入局部最優)和計算復雜度的限制。而且,由于維度災難,再多的數據也不會夠。正是由于這些原因,只要你努力,聰明的算法——那些充分利用已有數據和計算資源的算法——最后總能取得成功。在設計學習器和學習分類器之間并沒有明顯的界限;因為任何知識要么可以被編碼進學習器,要么可以從數據中學到。所以,機器學習項目通常會有學習器設計這一重要部分,機器學習實踐者應當在這方面積累一些專門知識[12]。

? ? ??終極而言,最大的瓶頸既不是數據,也不是CPU速度,而是人力。在研究論文中,學習器一般都在準確率和計算復雜度方面進行比較。但更重要的是節省的人力和得到的知識,雖然這些更難度量。這使那些產生人類可理解的輸出的學習器(比如規則集合)更為受到青睞。機器學習成果最豐碩的,是那些建立了機器學習的基本條件,能夠便捷地在多個學習器、數據來源和學習問題上方便有效地開展實驗,并實現機器學習專家與領域專家的密切合作的組織。

要學習很多模型,而不僅僅是一個

? ? ??在機器學習早期,每個人都有一個最喜歡的學習器,并由于一些先入為主的原因堅信它的優越性。人們花費大部分精力來嘗試它的各種變種,從中選擇最好的那個。后來,系統的實驗比較表明在不同應用上的最佳學習器并不相同,因此開始出現包含多種學習器的系統。這時,人們嘗試不同學習器的各種變種,仍然只是找出其中表現最好的那個。后來研究者注意到,如果不是只選最好的那個,而是將多個學習器結合,結果會更好——通常是好得多——而這只需要花費人們很少的精力。

? ? ? 現在建立模型集成(model?ensembles)已經實現標準化[1]。最簡單的集成技術是bagging(裝袋)方法,該方法通過重采樣(resampling)隨機產生若干個不同的訓練集,在每個集合上訓練一個分類器,然后用投票(voting)的方式將結果合并。該方法比較有效,原因是它在輕度增加偏置的同時,極大地降低了方差。在boosting(強化提升)方法中,每個訓練樣例都有權重,權重會不斷變化,每次訓練新分類器的時候都集中在那些分類器之前傾向于分錯的樣例上。在stacking(堆疊)方法中,每個單獨分類器的輸出會作為更高層分類器的輸入,更高層分類器可以判斷如何更好地合并這些來自低層的輸出。

? ? ? 此外,還有很多其他技術,現在的趨勢是越來越大型的集成。在Netflix大獎賽中,來自世界各地的團隊競爭建立最好的視頻推薦(http://netflixprize.com)。隨著競賽的開展,團隊們開始發現與其他團隊合并學習器會取得最好的結果,因此團隊開始合并,越來越大。競賽的第一名和第二名團隊都合并了超過100個學習器,將這兩者集成后又進一步提升了效果。毫無疑問,未來我們會看到更大的集成學習器。

? ? ? 模型集成不應與貝葉斯模型平均(bayesian model averaging,BMA)混淆,后者是學習的一種理論最優化方法[4]。在貝葉斯模型平均方法中,對新樣例的預測是對假設空間中的所有分類器的預測取平均得到的,每個分類器會根據它解釋訓練數據的能力和我們對它的先驗信任度而有不同的權重。雖然模型集成與貝葉斯模型平均方法表面上很相似,它們其實非常不同。集成方法改變了假設空間(例如從單獨的決策樹變成了決策樹的線性組合),而且可以采用多種多樣的形式。貝葉斯模型平均方法只是根據某個準則對原始空間的假設賦予不同的權重。貝葉斯模型平均方法的權重與bagging或者boosting等集成方法產生的權重非常不同。后者很平均,而前者波動很大,甚至出現某個權重最大的分類器占據統治地位的情況,導致貝葉斯模型平均方法實際上等同于直接選擇這個權重最大的分類器[8]。一個實際的后果是,模型集成已經成為機器學習工具的重要組成部分,而貝葉斯模型平均方法則少有人問津。

簡單并不意味著準確

? ??? 著名的奧坎姆剃刀(occam’srazor)原理稱:若無必要,勿增實體(entities should not be multiplied beyond necessity)。在機器學習中,這經常被用來表示成:對于有相同訓練誤差的兩個分類器,比較簡單的那個更可能有較低的測試誤差。關于這個斷言的證明經常出現在文獻中,但實際上對此有很多反例,而且“沒有免費的午餐”定理也暗示了這個斷言并不正確。

? ? ? 我們前面已經看到了一個反例:模型集成。集成模型的泛化誤差會一直隨著增加新的分類器而改進,甚至可以優于訓練誤差。另一個反例是支持向量機,它實際上可以有無限個參數而不至于過擬合。而與之相反,函數可以將軸上任意數量、任意分類的數據點劃分開,即使它只有1個參數[23]。因此,與直覺相反,在模型參數的數量和過擬合之間并無直接聯系。

? ? ? 一個更成熟的認識是將復雜度等同于假設空間的大小。這是基于以下事實:更小的假設空間允許用更短的代碼表示假設。那么“理論保證”一節中的邊界就暗示了,更短的假設可以泛化得更好。這還可以進一步改善為,為有先驗偏好的空間中的假設分配更短的代碼。但如果將此看作是準(accuracy)和簡單(simplicity)之間權衡的“證明”,那就變成循環論證了——我們將所偏好的假設設計得更加簡單,而如果結果是準確的是因為我們的偏好是準確的,而不是因為這些假設在我們選擇的表示方法中是“簡單的”。

? ? ? 問題的復雜性還來自這樣一個因素:幾乎沒有學習器能窮盡搜索整個假設空間。一個在較大的假設空間搜索較少假設的學習器,比一個在較小空間中搜索較多假設的學習器更不容易過擬合。正如珀爾(Pearl)[18]指出的,假設空間的大小只是對對確定影響訓練誤差和測試誤差的關鍵因素有初步的指導意義。

? ? ? 多明戈斯[7]調研了機器學習中奧坎姆剃刀原理問題的主要論證和論據。結論是,應當先選擇簡單假設,這是因為簡單本身就是一個優點,而不是因為所假設的與準確率有什么聯系。這也許正是奧坎姆最初想表達的意思。

可表示并不意味著可學習

? ??? 從本質上講,用于大小可變的學習器的所有表示都有其形式為“每個函數都可以表達為或以無限接近的方式近似表達為××表示”的定理與之伴隨。正因為如此,某種表示方法的擁躉往往會忽略其他方法。但是,僅僅因為一個函數可以被表示,并不意味著它是可被學習的。例如,標準的決策樹學習器無法學習出比訓練樣例更多的葉子節點。在連續空間中,用一個固定的基元(primitives)族來表示哪怕很簡單的函數,也常常要由無限多項組成。更進一步,如果假設空間有許多評價函數的局部最優點,正如經常發生的那樣,學習器可能根本無法找到這個真正的函數,即使它是可表示的。給定有限數據、時間和內存,標準學習器只能學到所有可能函數中很有限的子集。這個子集會隨著表示方法的不同而不同。因此,關鍵問題不是“它是否可表示?”(這個問題的答案通常無關緊要),而是“它是否可以被學習?”這值得我們嘗試不同的學習器(或者它們的組合)來尋找答案。

? ? ? 對某些函數來講,一些表示方法會比其他方法更加精簡,從而只需要更少的數據來學習那些函數。很多學習器的工作機制是將簡單的基函數(basis function)進行線性組合。例如,支持向量機就形成了集中在某些訓練樣例(也就是那些支持向量)上的核(kernels)的組合。如果用這種組合方法來表示n個比特的奇偶性(parity),將需要2n個基函數。但如果采用多層表示(也就是說在輸入和輸出之間存在多步),奇偶性就可以用一個線性規模的分類器表示。探索這種深層表示的學習方法是機器學習的主要研究前沿之一[2]。

相關并不意味著因果

? ??? 相關不意味著因果,這一點經常被提起,好像在這兒已經不值得再加贅述了。但是,即使我們討論的這些學習器只能學習到相關性,它們的結果也經常被作為因果關系來對待。這樣做錯了么?如果是錯的,為什么人們還這樣做呢?

? ? ? 更多時候,人們學習預測模型的目標是作為行動指南。如果我們發現超市里的啤酒和尿布經常被一起購買,那將啤酒放在尿布旁邊將會提高銷售量。(這是數據挖掘領域的著名例子。)但除非真的做實驗,不然很難發現這一點。機器學習通常應用于觀測(observational)數據,在觀測數據中預測變量并不在學習器的控制之下,這與實驗(experimental)數據相反,后者的預測變量在控制范圍內。一些學習算法其實有潛力做到從觀測數據發現因果信息,但它們的可用性比較差[19]。而另一方面,相關性是因果關系的標志,我們可以將其作為進一步考察的指南(例如試圖理解因果鏈可能是什么樣)。

? ? ? 很多研究者相信因果只是一種為了方便而杜撰的概念。例如,在物理定律中并沒有因果的概念。因果是否真的存在是一個深奧的哲學問題,現在并沒有一個確定的答案。但對于機器學習有兩個實用的要點。首先,無論我們是否稱它們為“因果關系”,我們都希望能預測我們行動的效果,而不僅僅是觀測變量之間的相關性;其次,如果你能夠獲取到實驗數據(例如能夠隨機分配訪問者到一個網站的不同版本),那么務必盡量獲取[14]。

結論

? ??? 就像其他任何一個學科那樣,機器學習擁有的很多“民間智慧”并不是那么容易就能了解到,但這些知識對于成功運用機器學習至關重要。這篇文章總結了其中最主要的幾條知識。當然這只是對機器學習的傳統學習內容的補充。讀者可以參加一個有完整內容的機器學習在線課程,其中融合了正式和非正式的知識,網站是http://www.cs.washington.edu/homes/pedrod/。此外,在http://www.videolectures.net上還有大量寶貴的與機器學習相關的學術報告。Weka[24]是一款優秀的機器學習開源工具包。

?

參考文獻

[1] Bauer, E. and Kohavi, R. Anempirical comparison of voting classification algorithms: Bagging, boosting and variants. Machine Learning 36 (1999),105~142

[2] Bengio, Y. Learning deep architectures for AI. Foundations and Trends in Machine Learning2, 1 (2009), 1~127

[3] Benjamini, Y. and Hochberg, Y. Controlling the false discovery rate: A practical and powerful approach to multiple testing. Journal of the Royal Statistical Society, Series B, 57 (1995),289~300

[4] Bernardo, J.M. and Smith, A.F.M. Bayesian Theory. Wiley, NY, 1994

[5] Blumer, A., Ehrenfeucht, A., Haussler, D. and Warmuth, M.K.Occam's razor. Information Processing Letters 24 (1987),377~380

[6] Cohen, W.W. Grammatically biased learning: Learning logic programs using an explicit antecedent description language. Artificial Intelligence 68 (1994),303~366

[7] Domingos, P. The role of Occam's razor in knowledge discovery. Data?Mining and Knowledge Discovery3 (1999), 409~425

[8] Domingos, P. Bayesian averaging of classifiers and the overfitting problem. In Proceedings of the 17th International Conference on Machine Learning (Stanford, CA,2000), Morgan Kaufmann, SanMateo, CA, 223~230

[9] Domingos, P. A unified bias variance decomposition and its applications. In Proceedings of the 17th International Conference on Machine Learning (Stanford, CA,2000), Morgan Kaufmann, San Mateo, CA, 231~238

[10] Domingos, P. and Pazzani, M.On the optimality of the simple Bayesian classifier under zero-one loss. Machine Learning 29 (1997),103~130

[11] Hulten, G. and Domingos, P.Mining complex models from arbitrarily large databases inconstant time. In Proceedings of the 8th ACMSIGKDD International Conference on Knowledge Discovery and Data Mining (Edmonton, Canada,2002). ACM Press, NY, 525~531

[12] Kibler, D. and Langley, P. Machine learning as an experimental science. In?Proceedings of the 3rd European Working Session on Learning(London, UK, 1988). Pitman

[13] Klocka rs, A.J. and Sax, G.Multiple Comparisons. Sage,Beverly Hills, CA, 1986

[14] Kohavi, R., Longbotham, R.,Sommerfield, D. and Henne, R. Controlled experiments on theWeb: Survey and practical guide. Data Mining and Knowledge?Discovery 18 (2009), 140~181

[15] Manyika, J., Chui, M., Brown, B.,Bughin, J., Dobbs, R., Roxburgh, C. and Byers, A. Big data: The next frontier for innovation, competition, and productivity. Technical report, McKinsey Global Institute, 2011

[16] Mitchell, T.M. Machine Learning. McGraw-Hill, NY, 1997

[17] Ng, A.Y. Preventing "overfitting" of cross-validation data. In Proceedings of the 14th?International Conference on Machine Learning (Nashville, TN,1997). Morgan Kaufmann, SanMateo, CA, 245~-253

[18] Pearl, J. On the connection between the complexity and credibility of inferred models. International Journal of General Systems 4 (1978), 255~264

[19] Pearl, J. Causality: Models, Reasoning, and Inference. Cambridge University Press, Cambridge, UK, 2000

[20] Quinlan, J.R. C4.5: Programs for Machine Learning. Morgan Kaufmann, San Mateo, CA, 1993

[21] Richardson, M. and P. Domingos. Markov logic networks. Machine Learning 62 (2006), 107--136

[22] Tenenbaum, J., Silva, V. and Langford, J. A global geometric frame work for nonlinear dimensionality reduction. Science 290 (2000), 2319~2323

[23] Vapnik, V.N. The Nature of Statistical Learning Theory. Springer, NY, 1995

[24] Witten, I., Frank, E. and Hall, M. Data Mining: Practical Machine Learning Tools and Techniques, 3rd Edition. Morgan Kaufmann, San Mateo, CA, 2011

[25] Wolpert, D. The lack of a priori distinctions between learning algorithms. Neural Computation 8(1996), 1341~1390

?


?

1?這里2100表示100個布爾變量的所有可能情況的個數,而106表示已經看到的100萬樣例,因此有2100-106個可能情況是沒有看到過的,因此也不知道它們的類別。

2?訓練樣例含有64個布爾類型特征和1個根據一個集合的“如果…那么…”的規則集合計算得到的布爾類型的類別。圖中的曲線是對100次運行結果的平均,每次對應不同的隨機產生的規則集合。誤差條(error bar)代表兩個標準方差。具體細節請參考論文[10]。

3這里作者指的是輸入為布爾量時的情形。

4原文公式有誤,根據參考文獻[5]應為該公式。

?

作者:佩德羅·多明戈斯:美國西雅圖華盛頓大學計算機科學與工程系教授。pedrod@cs.washington.edu
譯者:劉知遠CCF會員。清華大學博士后。主要研究方向為自然語言處理、信息檢索與社會計算。lzy.thu@gmail.com

?

轉載于:https://www.cnblogs.com/I-Tegulia/p/4607894.html

總結

以上是生活随笔為你收集整理的[转] 机器学习那些事儿的全部內容,希望文章能夠幫你解決所遇到的問題。

如果覺得生活随笔網站內容還不錯,歡迎將生活随笔推薦給好友。

欧美一级黄色片 | 成人av电影在线观看 | 久久黄色影视 | 美女免费网视频 | 久久99久国产精品黄毛片入口 | 国产一区免费观看 | 国产一级一片免费播放放 | 久久久久久久综合色一本 | 欧美日韩免费观看一区=区三区 | 欧美在线91 | 午夜视频在线瓜伦 | 欧美一区二区免费在线观看 | 激情久久久久久久久久久久久久久久 | 蜜臀久久99精品久久久无需会员 | www中文在线 | av电影一区 | 狠狠色丁香婷婷综合橹88 | 韩日电影在线 | 免费久久精品视频 | 国产欧美精品一区二区三区四区 | 人人添人人 | 欧美日韩高清一区 | 日韩中文字幕视频在线观看 | 久久亚洲欧美日韩精品专区 | 国产精品一区在线播放 | 久久久久久国产精品免费 | 国产精品亚洲人在线观看 | 中文字幕视频一区 | 五月精品 | 日韩伦理一区二区三区av在线 | 国产裸体视频网站 | 国产最新91| 欧美性精品 | 免费性网站 | 久久国产精品系列 | 精品国产一区二区三区在线观看 | 丁香婷婷深情五月亚洲 | 黄色大片国产 | 天天干天天射天天爽 | 国产极品尤物在线 | 日韩成人精品一区二区 | 少妇自拍av | 久久tv | 九九99视频| 久久免费视频7 | 亚州天堂| 一区二区三区国产欧美 | 亚洲视频在线播放 | 日韩av视屏 | 免费看v片 | 在线国产日本 | 美女网站黄免费 | 日韩一区二区三区不卡 | 久久精品欧美日韩精品 | 国产精品久久久久久久久久不蜜月 | 国产午夜精品免费一区二区三区视频 | 性色av香蕉一区二区 | 国产一级淫片免费看 | 狠狠狠狠狠狠干 | 国产精久久久久久久 | 久久午夜网 | 日韩有码中文字幕在线 | 国产热re99久久6国产精品 | 日韩丝袜在线观看 | 狠狠干夜夜操 | 在线中文日韩 | 天天爱综合 | 在线观看激情av | 天天爱天天插 | 中文字幕av日韩 | 999久久| 国产精品亚洲精品 | 91精品国产一区二区在线观看 | 天天超碰 | 日韩综合色 | 亚洲视频电影在线 | 亚洲精品一区二区三区四区高清 | 91桃花视频 | 免费观看一级一片 | 国产精品综合av一区二区国产馆 | 中字幕视频在线永久在线观看免费 | 激情六月婷婷久久 | 一区二区中文字幕在线播放 | 丁香婷婷色月天 | 午夜久久久久久久 | 日韩激情第一页 | 91成人精品一区在线播放69 | 日韩久久精品一区二区 | 日本乱码在线 | 天天射天天干天天插 | 久久国产精品99久久久久久进口 | 日韩特黄av | 欧美婷婷色| 天天综合狠狠精品 | 亚洲国产成人精品在线 | 亚洲精品免费在线播放 | 久久国产91 | 亚洲涩涩涩 | 91色影院 | 91亚洲狠狠婷婷综合久久久 | 久久久精品久久日韩一区综合 | 日韩性xxx| 免费高清看电视网站 | 国产精品18久久久久vr手机版特色 | 久久久伦理 | 国产黄在线播放 | 97在线观看视频免费 | av网站在线免费观看 | 国产精品亚洲精品 | 丁香婷婷综合网 | 国产97免费 | 色婷婷在线播放 | 欧美精品黑人性xxxx | 国产亚洲婷婷 | 国产成人精品亚洲 | 久久精品欧美 | 国产丝袜美腿在线 | 日韩欧美xx | 久久久久久久久久国产精品 | 亚洲国产片 | 日批视频在线 | 黄色三级免费看 | 国产色综合 | 97在线播放| 视频在线观看91 | 欧美日本日韩aⅴ在线视频 插插插色综合 | 91大神免费视频 | 夜夜躁天天躁很躁波 | 97av.com| 国产成人99久久亚洲综合精品 | 国产中文在线字幕 | 国产精久久久久久久 | 久久久久9999亚洲精品 | 成人综合婷婷国产精品久久免费 | 国内揄拍国产精品 | 国产精品av免费 | 一区二区三区动漫 | 91久久久久久国产精品 | 黄色一级免费 | 精品国产乱码久久久久久1区二区 | 久热免费在线观看 | 国产精品毛片久久久久久 | 免费亚洲片 | 波多野结衣一区三区 | 日本中文字幕久久 | 欧美巨大 | 国产一区二区三区免费在线 | 国产v视频 | 亚洲一区二区黄色 | 欧美电影黄色 | 中文字幕色综合网 | 一区二区精品在线 | 最近最新中文字幕视频 | 国产精品久久久久久久免费 | 婷婷久久亚洲 | 狠狠干狠狠色 | 中文字幕精品一区二区精品 | 中文字幕在线观 | 91日韩精品一区 | av午夜电影 | 操操碰 | 久久免费福利视频 | 久久高清免费视频 | 久久久久免费精品国产 | 激情五月在线视频 | 亚洲欧洲精品久久 | 夜夜躁日日躁狠狠躁 | 中文字幕av免费观看 | 国产精品高潮在线观看 | 国产高清视频 | 四虎影视精品 | 中文字幕在线观看一区二区 | 狠狠激情中文字幕 | 国产午夜精品一区二区三区嫩草 | 亚洲91中文字幕无线码三区 | 亚洲午夜久久久久久久久久久 | 一区二区精品在线 | 中文一区在线观看 | 福利视频导航网址 | 国产一区在线观看视频 | 88av网站 | 欧美极品裸体 | 中文字幕一区二区三区四区在线视频 | 欧美成人免费在线 | 久久免费精品视频 | 国产精品高潮呻吟久久av无 | 日日夜夜骑 | 啪啪凸凸| 国产精品视频免费 | 九色91福利 | 99精品视频精品精品视频 | 日韩中文在线观看 | 丁香六月在线观看 | 国产在线专区 | 不卡的av电影在线观看 | 久久免费视频网 | 国产精品久久久一区二区三区网站 | 成人午夜电影免费在线观看 | 天天插天天狠天天透 | 99热这里只有精品久久 | 欧洲一区二区在线观看 | 国产免费黄色 | 久久久久久久久久久久久久免费看 | 在线观看韩日电影免费 | 婷婷六月综合亚洲 | 久久国产区 | 9999亚洲| 婷婷六月综合网 | 国产视频 亚洲精品 | 精品伊人久久久 | 国产成免费视频 | 在线看国产日韩 | 国产日韩精品一区二区在线观看播放 | 日韩成人一级大片 | 国产精品人人做人人爽人人添 | 国产明星视频三级a三级点| 日韩综合在线观看 | 国产精品色婷婷视频 | 免费在线激情电影 | 亚洲国产高清在线观看视频 | 欧美日在线 | 国产成人精品一区二区三区网站观看 | 中文字幕在线看人 | 国产午夜精品免费一区二区三区视频 | 中文字幕高清视频 | 国产精品久久久久久久久久久久午夜 | 九九热视频在线 | 亚洲成人av片在线观看 | 欧美一区在线看 | 成人免费在线观看av | 国产美女网站在线观看 | 视频精品一区二区三区 | 国产精品一区专区欧美日韩 | 8x成人在线 | 成人av日韩 | 高清国产午夜精品久久久久久 | 国产v亚洲v| 国产精品久久久久久久久久久久午夜 | 精品国产伦一区二区三区观看说明 | 国产精品青青 | 最新成人在线 | 中文字幕在线观看你懂的 | 亚州av免费 | 不卡视频国产 | 久久精品高清 | 日本成人黄色片 | 夜夜婷婷 | 亚洲一区 av | av电影中文字幕在线观看 | 手机av永久免费 | 二区视频在线观看 | 天天干天天操天天爱 | 五月天婷婷在线视频 | 日韩狠狠操 | 日韩中文字幕在线不卡 | 黄色成年片 | 人人超碰97 | 亚洲在线视频免费 | 人人舔人人爱 | 色婷婷在线播放 | 免费看一级片 | 91pony九色丨交换 | 伊人影院在线观看 | 日批视频在线播放 | 亚洲三级黄 | 97激情影院 | 日韩精品一区二区三区高清免费 | 三级黄色在线观看 | 草 免费视频 | 国产色久 | 国产精品小视频网站 | 婷婷激情五月 | 婷婷.com| 国产精品手机看片 | 欧美九九视频 | 免费看国产黄色 | 日韩久久在线 | 97在线视频免费播放 | av免费电影在线观看 | av丁香| 精品一区二区免费 | 日日夜夜免费精品 | 免费观看v片在线观看 | 国产精品视屏 | 免费在线看v | 国产精品乱码久久久 | 99视频一区 | 亚洲日本精品 | 成人观看视频 | 精品一区二区三区在线播放 | 欧美午夜性生活 | 久久伦理网 | 久草爱 | 久久国产精品一区二区 | 日韩在线视频播放 | 能在线观看的日韩av | 一区二区精品国产 | 日韩精品中文字幕一区二区 | 最近乱久中文字幕 | 成人黄色小说网 | 成人动漫一区二区三区 | 香蕉视频在线视频 | 国产精品久久久久久久久久久久 | 成人黄色在线电影 | 日韩在线视频一区二区三区 | 国内精品视频在线 | 国产精品久久久久久久久久三级 | 日韩激情免费视频 | 91福利视频免费观看 | 精品不卡视频 | 久久99视频免费 | 激情综合五月天 | 婷婷色婷婷| 午夜视频一区二区三区 | 日韩在线视频播放 | 精品在线观看一区二区三区 | av在线网站免费观看 | 美女黄视频免费 | 欧美va天堂va视频va在线 | 国产最顶级的黄色片在线免费观看 | 色妞久久福利网 | 久久久首页 | 狠狠狠狠狠狠干 | 97网| 人人爽人人爽人人片av | 在线观看av片| 久久视频二区 | 99这里精品 | 日本性生活免费看 | 久久免费国产精品 | 在线播放一区二区三区 | 在线天堂中文在线资源网 | 国产69精品久久app免费版 | 一区三区在线欧 | 精品国产一区二区三区男人吃奶 | 成人黄在线观看 | 国产精品美女久久久久久网站 | 美女视频黄免费的 | 久色小说 | 婷婷在线看 | 欧美 亚洲 另类 激情 另类 | 日韩精品高清视频 | 亚洲综合在线一区二区三区 | 五月婷婷操| 九九九热精品免费视频观看网站 | 欧美-第1页-屁屁影院 | 九九精品视频在线看 | 久草在线免费播放 | 一区二区三区影院 | 日韩av男人的天堂 | 成人午夜免费福利 | 尤物一区二区三区 | 日韩精品一区二区三区免费观看 | 久久人人爽人人爽人人 | 国产精品亚洲综合久久 | 免费看黄视频 | 一区二区三区四区影院 | 福利电影一区二区 | 久久久久亚洲a | 免费黄色看片 | 久久视频免费观看 | 国产精品毛片一区二区在线看 | 国产成人在线观看 | 日韩精品一区二区三区水蜜桃 | 美女网站在线看 | 日免费视频 | 亚洲国产一二三 | 国产综合福利在线 | 天堂av最新网址 | 一区三区视频在线观看 | 免费国产在线精品 | 玖玖在线视频观看 | av色网站| 九九99| 国产五月天婷婷 | 久久久一本精品99久久精品66 | 免费观看完整版无人区 | 日本视频久久久 | 成人在线免费看 | 女人18精品一区二区三区 | 日韩精品视频网站 | 91人人澡| 欧美日韩国内在线 | 97碰在线视频 | 国产最新在线视频 | av中文字幕亚洲 | 天堂网av 在线 | 欧美地下肉体性派对 | 日韩免费在线视频观看 | 亚洲婷婷伊人 | 99 视频 高清 | 亚洲码国产日韩欧美高潮在线播放 | 国产专区精品 | 在线观看视频中文字幕 | 91九色视频网站 | 日本丶国产丶欧美色综合 | 成人黄色电影免费观看 | 91精品推荐 | 中文字幕在线看视频 | 日日碰狠狠躁久久躁综合网 | 99免费在线观看视频 | 在线免费观看一区二区三区 | 精品一区二区6 | 亚洲亚洲精品在线观看 | 麻豆国产电影 | 亚洲日本中文字幕在线观看 | 国产精品久久久网站 | 97看片网| 久久99精品波多结衣一区 | 日韩av手机在线看 | 久久精品成人 | 久久精品国产亚洲 | 婷婷网在线 | 午夜视频在线观看一区二区三区 | 国产成人一区二区三区久久精品 | 在线综合 亚洲 欧美在线视频 | 久久久在线 | 天天色天天干天天色 | 久草视频免费 | 精品一区二区三区电影 | 99精品视频在线观看 | 国产一二区视频 | 午夜天使| 精品在线观看一区二区 | 色噜噜日韩精品一区二区三区视频 | 久久国产日韩 | 在线观看视频97 | 九九精品毛片 | 欧美成人h版电影 | 狠狠地操 | 日本三级在线观看中文字 | 精品一区精品二区 | 91精品视频播放 | 成人免费网视频 | av不卡免费看 | 亚洲少妇久久 | 国产在线观看黄 | 精品久久影院 | 亚洲香蕉在线观看 | 免费在线观看一区 | 又黄又刺激视频 | 日本中文在线播放 | 激情五月播播久久久精品 | 国产综合婷婷 | 精品国精品自拍自在线 | 日韩在线视频一区 | 精品女同一区二区三区在线观看 | 在线a人v观看视频 | 成人动漫一区二区 | 国产视频欧美视频 | 国产精品99久久久久久久久久久久 | 亚洲三级精品 | 国语对白少妇爽91 | 丝袜足交在线 | 欧美亚洲三级 | 亚洲欧洲日韩在线观看 | 国产精品久久久久久久久久东京 | 天天干夜夜夜操天 | 久久精品99久久 | 人人澡超碰碰97碰碰碰软件 | 精品 一区 在线 | 香蕉影视| 美女网站视频免费黄 | 在线中文字幕视频 | 特级黄录像视频 | 欧美精品二区 | 亚洲精品91天天久久人人 | 亚洲精品在线免费 | 伊人成人精品 | 午夜视频在线观看欧美 | 超碰在线人人艹 | 久9在线| 手机av在线免费观看 | 国产成人精品亚洲精品 | 最近中文字幕免费av | 99这里只有久久精品视频 | 91爱爱中文字幕 | 成人国产精品一区二区 | 免费中午字幕无吗 | 久久99视频免费观看 | 欧美一区二区三区在线视频观看 | 久久精品中文视频 | 色吊丝av中文字幕 | 91中文字幕网| 国产视频一区二区在线观看 | 久久久久久久久久久免费视频 | 96精品高清视频在线观看软件特色 | 国产精品爽爽久久久久久蜜臀 | v片在线看 | 国产日韩精品一区二区三区在线 | 午夜三级福利 | 国产在线播放一区 | 亚州精品一二三区 | 蜜臀久久99精品久久久无需会员 | 国产一级电影免费观看 | 91九色国产 | 久久精品国产v日韩v亚洲 | 欧美亚洲国产日韩 | 色婷婷亚洲精品 | 果冻av在线 | 久久精品xxx | 日韩久久精品一区二区三区下载 | 国产成人在线精品 | 亚洲综合在线五月 | 最近中文字幕大全 | 亚洲一区二区三区四区精品 | 国产一区免费在线 | 国产精品短视频 | 在线看国产一区 | 91av视频网站 | 亚洲日本成人网 | 日韩国产精品久久久久久亚洲 | 天天夜夜狠狠操 | 亚洲精品麻豆 | 免费观看一区二区三区视频 | 国产又粗又猛又爽又黄的视频先 | 国产成人黄色在线 | 国产精品入口传媒 | 97网在线观看 | av成人免费在线观看 | av线上看 | 激情网婷婷 | 免费久久片| 夜夜躁日日躁狠狠久久av | japanesefreesexvideo高潮 | 亚洲国产成人在线 | av黄色国产 | 欧美激情视频一区二区三区 | 天天综合网久久 | 操高跟美女 | www好男人 | 国产精品欧美久久久久三级 | 一区二区三区在线视频111 | 最近中文字幕高清字幕在线视频 | av资源网在线播放 | 亚洲精品国产精品国自产 | 91av中文字幕 | 免费黄色在线 | 精品亚洲一区二区 | 精品999久久久 | 久久久免费毛片 | 日韩国产精品一区 | 午夜影视剧场 | 日韩美在线 | 黄网站免费看 | 999日韩 | 999精品视频| 婷婷综合在线 | 夜夜躁狠狠躁日日躁 | 色综合久久久 | 99久久日韩精品视频免费在线观看 | 激情六月婷婷久久 | 精品专区一区二区 | 黄色软件视频网站 | 四虎在线观看 | 四虎影视成人精品 | 在线免费观看麻豆视频 | 免费视频久久 | 日韩精品视频久久 | 欧美日韩在线免费视频 | 欧美另类xxxx | 成人午夜电影在线 | 免费看的黄色 | 国产夫妻av在线 | 国产黑丝一区二区 | 国产精品一区二区久久精品 | 国产视频第二页 | 欧美日韩三级在线观看 | 6080yy精品一区二区三区 | 国产九九九精品视频 | 国产一区久久久 | 国产一区二区免费 | 日韩午夜电影院 | www.久草视频| 欧美va日韩va | 亚洲成人av影片 | av在线免费在线 | 免费视频91 | 992tv在线成人免费观看 | av电影免费在线播放 | 国产精品 美女 | 欧美91成人网 | 在线观看黄色 | a视频免费| 综合在线亚洲 | av成人免费 | 97超视频在线观看 | 亚洲精选99| 国产99久久久国产精品 | 91精品免费视频 | 91九色自拍 | 久草在在线 | 精品视频在线免费观看 | 狠狠狠色丁香婷婷综合久久88 | 青青河边草观看完整版高清 | 午夜精品成人一区二区三区 | 黄色软件在线看 | 日本久久久久久 | 中文字幕黄色网 | 国产一级片播放 | 日韩欧美综合在线视频 | 国产欧美日韩视频 | 成人在线网站观看 | 欧美一级免费黄色片 | 欧美在线一级片 | 久久久影院官网 | 97电影院网 | 欧美va天堂va视频va在线 | 日韩特级黄色片 | 日韩一区二区免费在线观看 | 网站在线观看你们懂的 | 97品白浆高清久久久久久 | 手机成人免费视频 | 美女网站视频免费都是黄 | 亚洲精品 在线视频 | 依人成人综合网 | 日韩手机在线观看 | 毛片激情永久免费 | 在线观看a视频 | 久久久999| 欧美一级淫片videoshd | 亚洲综合视频在线播放 | 久久精品网站免费观看 | 天天综合网天天 | 亚洲激情网站免费观看 | 亚洲精品www. | 91视频亚洲 | 欧美日韩国产高清视频 | 91在线公开视频 | 特级西西444www大精品视频免费看 | 国产黄视频在线观看 | 99精品在线免费观看 | 国产精品久久久久久久久大全 | 99久久久久久久 | 天天操天天干天天操天天干 | 婷婷丁香六月 | 日本xxxx裸体xxxx17 | 成人黄色小说网 | 国产手机精品视频 | 麻豆精品视频 | 亚洲国产成人精品在线观看 | 日韩电影久久久 | 在线视频a | 亚洲天堂网站视频 | 免费手机黄色网址 | 国产精品精品国产婷婷这里av | 国产 日韩 欧美 自拍 | 91精品老司机久久一区啪 | 91av免费观看 | 日韩三级视频在线看 | 国内精品久久久久久久 | 免费又黄又爽的视频 | 九九九九九九精品任你躁 | 蜜臀av夜夜澡人人爽人人 | 天天插夜夜操 | 久久综合免费视频 | 国产毛片aaa| 成人久久综合 | 在线成人国产 | 欧美精品在线观看 | 国产精品黑丝在线观看 | 国产高清成人av | 天天亚洲 | 久久99亚洲精品久久久久 | 亚洲精品乱码久久久久久蜜桃动漫 | 欧美性大胆 | 五月婷婷丁香网 | 久久香蕉国产精品麻豆粉嫩av | 久久开心激情 | 国产精品久久久久永久免费观看 | a久久久久久| 丁香 婷婷 激情 | 亚州国产精品久久久 | 亚洲午夜精品一区 | 97在线观看免费观看高清 | 日韩美女av在线 | 在线一二三四区 | 五月婷婷六月综合 | 黄色影院在线免费观看 | 天天要夜夜操 | 国产精品免费观看网站 | 月下香电影 | 国产网站色 | 日韩精品免费在线播放 | 精品久久久久久亚洲综合网站 | 丁香婷婷久久 | www狠狠操| 中文在线免费视频 | 婷婷亚洲最大 | 久久精品视频在线 | 西西大胆免费视频 | 91在线精品秘密一区二区 | 999ZYZ玖玖资源站永久 | 黄色一级片视频 | 久久精品韩国 | 99久久精品午夜一区二区小说 | 五月婷在线观看 | 99c视频在线 | 91精品国产99久久久久 | 成人日韩av | 深爱激情五月婷婷 | av片中文字幕 | 久久不射电影院 | 久草电影免费在线观看 | av中文字幕在线免费观看 | 欧美日韩视频免费 | 国产毛片久久久 | 91视频国产高清 | 国产精品毛片一区二区三区 | 国产精品九九久久99视频 | 国产中文字幕亚洲 | 亚洲乱码久久久 | 激情婷婷欧美 | 国产精品综合久久久 | 中文日韩在线视频 | 国产免费三级在线观看 | 国产一区二区在线免费观看 | 国产精品专区h在线观看 | 午夜精品久久久久久久99无限制 | 一区 二区电影免费在线观看 | 黄色av影视 | 91看片麻豆 | 久久久精品国产免费观看同学 | 久久a v视频 | 国产精品欧美久久久久天天影视 | 欧美日本一二三 | 在线视频手机国产 | 亚洲视频www | 91成人免费看 | 久久国产精品99国产精 | 成人黄色电影在线观看 | 黄色字幕网 | 夜色资源站国产www在线视频 | 啪啪小视频网站 | 伊人导航 | 蜜臀av一区二区 | av片一区| 成人毛片一区二区三区 | 在线免费av网站 | 蜜臀av一区二区 | 99免在线观看免费视频高清 | 91手机视频在线 | 中文字幕免费久久 | 久久69精品 | 日韩av手机在线观看 | 天天操天天操 | 高清一区二区三区 | 日韩精品第1页 | www.888av| 国产精品女主播一区二区三区 | 久久国产一区二区三区 | 黄色网址a | 亚洲我射av| 中文字幕在线观看你懂的 | 免费视频在线观看网站 | 美州a亚洲一视本频v色道 | 麻花豆传媒mv在线观看 | 特黄一级毛片 | 91在线免费观看网站 | 中文字幕精品一区二区三区电影 | 亚洲91精品在线观看 | 亚洲天堂网在线视频观看 | 成人a免费视频 | 波多野结衣精品在线 | 亚洲视频电影在线 | 男女全黄一级一级高潮免费看 | 91cn国产在线| 久久久久久国产一区二区三区 | 成人99免费视频 | 狠狠久久伊人 | 亚洲精品白浆高清久久久久久 | 人人爱人人舔 | 免费在线一区二区三区 | 日韩大陆欧美高清视频区 | 91人人澡人人爽人人精品 | 伊人色综合久久天天 | 欧美一级免费黄色片 | 成人免费xxx在线观看 | 国产精品18久久久久久不卡孕妇 | 五月天综合婷婷 | 久久高清片 | 超碰97在线看 | 久久精品视频18 | 五月天丁香综合 | www国产亚洲精品久久网站 | 国产精品v欧美精品v日韩 | www91在线| 国产美女视频一区 | 一区二区三区 中文字幕 | 国产一二三四在线观看视频 | a天堂在线看 | 福利视频在线看 | 在线视频欧美精品 | 精品一二 | 天天婷婷 | 热re99久久精品国产66热 | 丁香花中文在线免费观看 | 黄色亚洲精品 | 日本系列中文字幕 | 精品乱码一区二区三四区 | 免费观看www7722午夜电影 | 美女网色 | 特级毛片在线免费观看 | 麻豆 videos | 日韩在线观看一区二区三区 | 婷婷丁香色 | 日韩一区二区三区免费视频 | 一区二区精品在线观看 | 三日本三级少妇三级99 | 99久久这里只有精品 | 日韩最新在线视频 | 欧美一区二区三区免费观看 | 国产欧美精品一区aⅴ影院 99视频国产精品免费观看 | 国产香蕉久久 | 国产精品久久久久久久久费观看 | 国产高清久久久久 | 欧美日韩伦理一区 | 成人午夜电影在线 | 欧美激情视频在线免费观看 | 国产精品久久久久久久久久三级 | 成人一区在线观看 | 国产午夜精品一区二区三区四区 | 精品国产电影一区 | 99久久精品日本一区二区免费 | 久久久久久久久久国产精品 | 久久久久97国产 | 日日夜夜天天射 | 久久久www成人免费精品 | 久久国产精品99久久久久 | 久久免费看毛片 | 中国一级特黄毛片大片久久 | 91丨九色丨国产在线 | 国产99久久精品一区二区300 | 久久在线影院 | 国产五月色婷婷六月丁香视频 | 国产日韩欧美视频 | 欧美男男tv网站 | 午夜av激情 | 久久视精品 | 麻豆视频在线 | 日韩精品久久一区二区 | 婷婷视频 | 日日夜精品 | 欧美三级高清 | 国产不卡视频在线播放 | 日韩在线免费高清视频 | 五月导航 | 欧美a在线看 | aaa日本高清在线播放免费观看 | 91视频在线看 | 日韩av电影中文字幕在线观看 | 天天爽夜夜爽精品视频婷婷 | 99精品国产兔费观看久久99 | 9999在线| 日韩精品视频在线观看免费 | 肉色欧美久久久久久久免费看 | 欧美激情视频在线观看免费 | 韩国av电影网 | 国产成人香蕉 | 欧美成人免费在线 | 午夜影院一级 | 日本中文在线观看 | av大片免费 | 人人干干人人 | 亚洲精品高清在线 | 一级黄色片在线观看 | 中文字幕精品一区二区三区电影 | 久久亚洲私人国产精品va | 在线免费观看黄色 | av免费成人 | 成人av在线播放网站 | 日本最大色倩网站www | 成年人在线播放视频 | 亚洲精品 在线视频 | 亚洲精品国产精品国自产 | 在线黄色毛片 | 亚洲精品成人av在线 | 四虎www.| 欧美日本啪啪无遮挡网站 | 日韩免费在线观看网站 | 黄www在线观看 | 久久精品欧美 | 久久久久久福利 | 国产精品国产三级国产aⅴ9色 | www.五月婷婷| 免费高清在线视频一区· | 国产一级在线 | 韩国中文三级 | 精品视频免费 | 91三级视频| 在线成人中文字幕 | 国产精品成人免费一区久久羞羞 | 亚洲人人网 | 久久国产精品一区二区三区四区 | 国产91精品看黄网站 | 91亚洲精品久久久久图片蜜桃 | ,久久福利影视 | 日韩精品一区二区三区视频播放 | 国产黄色看片 | 超碰在线日本 | 午夜视频在线观看一区二区 | 99av在线视频 | 亚洲欧美久久 | 亚洲精品午夜视频 | 在线观看视频一区二区 | 精品毛片久久久久久 | 日日日网| 欧美精品在线观看免费 | 黄网站污| 亚洲成av人片在线观看香蕉 | 天堂网一区 | 日韩精品一区二区在线 | 国产经典av | 成片免费 | 成人资源在线 | 国产精品 中文字幕 亚洲 欧美 | 综合成人在线 | 欧美午夜a | 最新日韩视频在线观看 | 视频国产一区二区三区 | 人人爽久久久噜噜噜电影 | 四虎成人精品永久免费av | 中文字幕有码在线观看 | 国产专区一 | 国产精品对白一区二区三区 | 玖玖999| 国产999在线 | 国产欧美三级 | 91精品视频在线观看免费 | 国产成人av综合色 | 免费视频xnxx com | 久久黄色影院 | www.黄色小说.com| 99热这里精品 | 一区二区三区久久 | 国产精品乱看 | 亚洲美女免费精品视频在线观看 | 很污的网站 | 四虎永久免费网站 | 天天插伊人 | 久草免费看 | 国产一卡在线 | 天天干天天搞天天射 | 在线a亚洲视频播放在线观看 | 黄色avwww | 亚洲欧美视频一区二区三区 | 国产一区二区在线精品 | 久久网站最新地址 | 天堂av高清 | 国产 日韩 欧美 中文 在线播放 | 精品国产免费看 | 欧美日韩在线视频免费 | 日韩欧美国产视频 | 不卡av免费在线观看 | 亚洲激情视频 | 天天天在线综合网 | 国产成人精品久久亚洲高清不卡 | 日韩在线视频一区 | 超级碰碰碰免费视频 | 色网av | 国产区精品视频 | 97国产在线视频 | 久久免费看a级毛毛片 | 欧美日韩伦理一区 | 少妇精品久久久一区二区免费 | 国产一区二区日本 | 国产精品mv| 99热在线观看 | 成人久久久久久久久久 | 久草精品视频在线看网站免费 | 天天做天天爱天天综合网 | 中文字幕一区二区三区久久蜜桃 | 欧美色婷婷 | 色丁香色婷婷 | 日韩av中文在线观看 | 亚洲精品理论片 | 亚洲精品一区二区在线观看 | 亚洲欧美国产精品久久久久 | 九九九九九九精品任你躁 | 国产精品福利视频 | 91私密保健 | 玖玖视频在线 | 久久午夜视频 | 菠萝菠萝蜜在线播放 | 丰满少妇在线观看资源站 | 狠狠色丁香婷婷综合久小说久 | 91久久精品一区二区二区 | 东方av在| 在线视频日韩欧美 | 久久大视频 | 日韩欧美高清在线观看 | 久久精品一区二 | 亚洲伦理中文字幕 | 伊人久久在线观看 | 日韩黄色软件 | 黄色大全在线观看 | 一级免费黄色 | 欧美少妇的秘密 |