日韩av黄I国产麻豆传媒I国产91av视频在线观看I日韩一区二区三区在线看I美女国产在线I麻豆视频国产在线观看I成人黄色短片

歡迎訪問 生活随笔!

生活随笔

當(dāng)前位置: 首頁 > 编程资源 > 编程问答 >内容正文

编程问答

《统计学习方法》(李航)读书笔记(转)

發(fā)布時(shí)間:2023/12/20 编程问答 51 豆豆
生活随笔 收集整理的這篇文章主要介紹了 《统计学习方法》(李航)读书笔记(转) 小編覺得挺不錯(cuò)的,現(xiàn)在分享給大家,幫大家做個(gè)參考.

《統(tǒng)計(jì)學(xué)習(xí)方法》(李航)讀書筆記(轉(zhuǎn))

http://www.cnblogs.com/limitlessun/p/8611103.html#_label4

閱讀目錄

  • 知識(shí)點(diǎn)
  • 感知機(jī)
  • k近鄰法
  • 樸素貝葉斯
  • 決策樹
  • logistic回歸和最大熵模型
  • 支持向量機(jī)
  • 提升方法
  • EM算法
  • 隱馬爾可夫模型(HMM)
  • 統(tǒng)計(jì)學(xué)習(xí)方法總結(jié)
  • 神經(jīng)網(wǎng)絡(luò)
  • K-Means
  • Bagging
  • Apriori
  • 降維方法
  • 引用

因?yàn)橐獪?zhǔn)備面試,本文以李航的《統(tǒng)計(jì)學(xué)習(xí)方法》為主,結(jié)合西瓜書等其他資料對(duì)機(jī)器學(xué)習(xí)知識(shí)做一個(gè)整理.

回到頂部

知識(shí)點(diǎn)

  • 進(jìn)程和線程:進(jìn)程和線程都是一個(gè)時(shí)間段的描述,是CPU工作時(shí)間段的描述,不過是顆粒大小不同.進(jìn)程就是包換上下文切換的程序執(zhí)行時(shí)間總和 = CPU加載上下文+CPU執(zhí)行+CPU保存上下文.線程是共享了進(jìn)程的上下文環(huán)境的更為細(xì)小的CPU時(shí)間段。
  • 判別式模型和生成式模型:
  • 判別式模型直接學(xué)習(xí)決策函數(shù)f(X)條件概率分布P(Y|X)作為預(yù)測(cè)的模型.往往準(zhǔn)確率更高,并且可以簡(jiǎn)化學(xué)習(xí)問題.如k近鄰法/感知機(jī)/決策樹/最大熵模型/Logistic回歸/線性判別分析(LDA)/支持向量機(jī)(SVM)/Boosting/條件隨機(jī)場(chǎng)算法(CRF)/線性回歸/神經(jīng)網(wǎng)絡(luò)
  • 生成式模型由數(shù)據(jù)學(xué)習(xí)聯(lián)合概率分布P(X,Y),然后由P(Y|X)=P(X,Y)/P(X)求出條件概率分布作為預(yù)測(cè)的模型,即生成模型.當(dāng)存在隱變量時(shí)只能用生成方法學(xué)習(xí).如混合高斯模型和其他混合模型/隱馬爾可夫模型(HMM)/樸素貝葉斯/依賴貝葉斯(AODE)/LDA文檔主題生成模型
    • 概率質(zhì)量函數(shù),概率密度函數(shù),累積分布函數(shù):
  • 概率質(zhì)量函數(shù) (probability mass function,PMF)是離散隨機(jī)變量在各特定取值上的概率。
  • 概率密度函數(shù)(p?robability density function,PDF?)是對(duì)?連續(xù)隨機(jī)變量?定義的,本身不是概率,只有對(duì)連續(xù)隨機(jī)變量的取值進(jìn)行積分后才是概率。
  • 累積分布函數(shù)(cumulative distribution function,CDF) 能完整描述一個(gè)實(shí)數(shù)隨機(jī)變量X的概率分布,是概率密度函數(shù)的積分。對(duì)於所有實(shí)數(shù)x ,與pdf相對(duì)。
    • 極大似然估計(jì):已知某個(gè)參數(shù)能使這個(gè)樣本出現(xiàn)的概率最大,我們當(dāng)然不會(huì)再去選擇其他小概率的樣本,所以干脆就把這個(gè)參數(shù)作為估計(jì)的真實(shí)值
    • 最小二乘法:二乘的英文是least?square,找一個(gè)(組)估計(jì)值,使得實(shí)際值與估計(jì)值之差的平方加總之后的值最小.求解方式是對(duì)參數(shù)求偏導(dǎo),令偏導(dǎo)為0即可.樣本量小時(shí)速度快.
    • 梯度下降法:負(fù)梯度方向是函數(shù)值下降最快的方向,每次更新值都等于原值加學(xué)習(xí)率(步長(zhǎng))乘損失函數(shù)的梯度.每次都試一個(gè)步長(zhǎng)看會(huì)不會(huì)下降一定的程度,如果沒有的話就按比例減小步長(zhǎng).不斷應(yīng)用該公式直到收斂,可以得到局部最小值.初始值的不同組合可以得到不同局部最小值.在最優(yōu)點(diǎn)時(shí)會(huì)有震蕩.
  • 批量梯度下降(BGD):每次都使用所有的m個(gè)樣本來更新,容易找到全局最優(yōu)解,但是m較大時(shí)速度較慢
  • 隨機(jī)梯度下降(SGD):每次只使用一個(gè)樣本來更新,訓(xùn)練速度快,但是噪音較多,不容易找到全局最優(yōu)解,以損失很小的一部分精確度和增加一定數(shù)量的迭代次數(shù)為代價(jià),換取了總體的優(yōu)化效率的提升.注意控制步長(zhǎng)縮小,減少震蕩.
  • 小批量梯度下降(MBGD):每次使用一部分樣本來更新.
    • 牛頓法:牛頓法是二次收斂,因此收斂速度快.從幾何上看是每次用一個(gè)二次曲面來擬合當(dāng)前所處位置的局部曲面,而梯度下降法是用一個(gè)平面來擬合.紅色的是牛頓法的迭代路徑,綠色的是梯度下降法的迭代路徑.牛頓法起始點(diǎn)不能離極小點(diǎn)太遠(yuǎn),否則很可能不會(huì)擬合.
  • 黑塞矩陣是由目標(biāo)函數(shù)f(x)在點(diǎn)X處的二階偏導(dǎo)數(shù)組成的n*n階對(duì)稱矩陣。
  • 牛頓法:將f(x)在x(k)附近進(jìn)行二階泰勒展開:,其中g(shù)k是f(x)的梯度向量在x(k)的值,H(x(k))是f(x)的黑塞矩陣在點(diǎn)x(k)的值.牛頓法利用極小點(diǎn)的必要條件f(x)處的梯度為0,每次迭代中從點(diǎn)x(k)開始,假設(shè),對(duì)二階泰勒展開求偏導(dǎo)有,代入得到,即,以此為迭代公式就是牛頓法.
    • 擬牛頓法:用一個(gè)n階正定矩陣Gk=G(x(k))來近似代替黑塞矩陣的逆矩陣就是擬牛頓法的基本思想.在牛頓法中黑塞矩陣滿足的條件如下:,令,則有,稱為擬牛頓條件.根據(jù)選擇Gk方法的不同有多種具體實(shí)現(xiàn)方法.
  • DFP算法:假設(shè)每一步,為使Gk+1滿足擬牛頓條件,可使Pk和Qk滿足,,例如取,,就得到迭代公式
  • ?BFGS算法:?最流行的擬牛頓算法.考慮用Bk逼近黑塞矩陣,此時(shí)相應(yīng)的擬牛頓條件是,假設(shè)每一步,則Pk和Qk滿足,,類似得到迭代公式.

    • 先驗(yàn)概率和后驗(yàn)概率:
  • 先驗(yàn)概率就是事情發(fā)生前的預(yù)測(cè)概率.
  • 后驗(yàn)概率是一種條件概率,它限定了事件為隱變量取值,而條件為觀測(cè)結(jié)果。一般的條件概率,條件和事件可以是任意的.
  • 貝葉斯公式P(y|x) = ( P(x|y) * P(y) ) / P(x)中,P(y|x)是后驗(yàn)概率,P(x|y)是條件概率,P(y)是先驗(yàn)概率.
    • 偏差,方差,噪聲:
  • 偏差:度量了學(xué)習(xí)算法的期望預(yù)測(cè)和真實(shí)結(jié)果偏離程度
  • 方差:度量了同樣大小的訓(xùn)練集的變動(dòng)所導(dǎo)致的學(xué)習(xí)性能的變化,即刻畫了數(shù)據(jù)擾動(dòng)所造成的影響
  • 噪聲:可以認(rèn)為是數(shù)據(jù)自身的波動(dòng)性,表達(dá)了目前任何學(xué)習(xí)算法所能達(dá)到泛化誤差的下限
  • 泛化誤差可以分解為偏差、方差與噪聲之和
    • 對(duì)偶原理:一個(gè)優(yōu)化問題可以從主問題和對(duì)偶問題兩個(gè)方面考慮.在推導(dǎo)對(duì)偶問題時(shí),通過將拉格朗日函數(shù)對(duì)x求導(dǎo)并使導(dǎo)數(shù)為0來獲得對(duì)偶函數(shù).對(duì)偶函數(shù)給出了主問題最優(yōu)解的下界,因此對(duì)偶問題一般是凸問題,那么只需求解對(duì)偶函數(shù)的最優(yōu)解就可以了.
    • KKT條件:通常我們要求解的最優(yōu)化條件有如下三種:
  • 無約束優(yōu)化問題:通常使用求導(dǎo),使導(dǎo)數(shù)為零,求解候選最優(yōu)值
  • 有等式約束的優(yōu)化問題:通常使用拉格朗日乘子法,即把等式約束用拉格朗日乘子和優(yōu)化問題合并為一個(gè)式子,通過對(duì)各個(gè)變量求導(dǎo)使其為零,求解候選最優(yōu)值.拉格朗日乘數(shù)法其實(shí)是KKT條件在等式約束優(yōu)化問題的簡(jiǎn)化版.
  • 有不等式約束的優(yōu)化問題:通常使用KKT條件.即把不等式約束,等式約束和優(yōu)化問題合并為一個(gè)式子.假設(shè)有多個(gè)等式約束h(x)和不等式約束g(x),則不等式約束引入的KKT條件如下:,實(shí)質(zhì)是最優(yōu)解在g(x)<0區(qū)域內(nèi)時(shí),約束條件不起作用,等價(jià)于對(duì)μ置零然后對(duì)原函數(shù)的偏導(dǎo)數(shù)置零;當(dāng)g(x)=0時(shí)與情況2相近.結(jié)合兩種情況,那么只需要使L對(duì)x求導(dǎo)為零,使h(x)為零,使μg(x)為零三式即可求解候選最優(yōu)值.
    • 性能度量:
  • 準(zhǔn)確度,最常用,但在數(shù)據(jù)集不平衡的情況下不好
  • Precision(精確度/查準(zhǔn)率):P=TP/(TP+FP)
  • Recall(召回率/查全率):R=TP/(TP+FN)
  • Fβ度量:,當(dāng)β=1時(shí)退化為F1度量,是精確率和召回率的調(diào)和均值.
  • TPR(真正例率):TPR=TP/(TP+FN)
  • FPR(假正例率):FPR=FP/(TN+FP)
  • PR曲線:縱軸為Precision,橫軸為Recall,一般使用平衡點(diǎn)(BEP,即Precsion=Recall的點(diǎn))作為衡量標(biāo)準(zhǔn).
  • ROC(接受者操作特征)曲線:縱軸為TRP,橫軸為FPR,在繪圖時(shí)將分類閾值依次設(shè)為每個(gè)樣例的預(yù)測(cè)值,再連接各點(diǎn).ROC曲線圍住的面積稱為AOC,AOC越大則學(xué)習(xí)器性能越好.
    • 損失函數(shù)和風(fēng)險(xiǎn)函數(shù):
  • 損失函數(shù)度量模型一次預(yù)測(cè)的好壞.常用的損失函數(shù)有:0-1損失函數(shù),平方損失函數(shù),絕對(duì)損失函數(shù),對(duì)數(shù)似然損失函數(shù).
  • 損失函數(shù)的期望是理論上模型關(guān)于聯(lián)合分布P(X,Y)的平均意義下的損失,稱為風(fēng)險(xiǎn)函數(shù),也叫期望風(fēng)險(xiǎn).但是聯(lián)合分布是未知的,期望風(fēng)險(xiǎn)不能直接計(jì)算.
  • 當(dāng)樣本容量N趨于無窮時(shí)經(jīng)驗(yàn)風(fēng)險(xiǎn)趨于期望風(fēng)險(xiǎn),但現(xiàn)實(shí)中訓(xùn)練樣本數(shù)目有限.
    • 經(jīng)驗(yàn)風(fēng)險(xiǎn)最小化和結(jié)構(gòu)風(fēng)險(xiǎn)最小化:
  • 模型關(guān)于訓(xùn)練數(shù)據(jù)集的平均損失稱為經(jīng)驗(yàn)風(fēng)險(xiǎn).經(jīng)驗(yàn)風(fēng)險(xiǎn)最小化的策略就是最小化經(jīng)驗(yàn)風(fēng)險(xiǎn).當(dāng)樣本數(shù)量足夠大時(shí)學(xué)習(xí)效果較好.比如當(dāng)模型是條件概率分布,損失函數(shù)是對(duì)數(shù)損失函數(shù)時(shí),經(jīng)驗(yàn)風(fēng)險(xiǎn)最小化就等價(jià)于極大似然估計(jì).但是當(dāng)樣本容量很小時(shí)會(huì)出現(xiàn)過擬合.
  • 結(jié)構(gòu)風(fēng)險(xiǎn)最小化等于正則化.結(jié)構(gòu)風(fēng)險(xiǎn)在經(jīng)驗(yàn)風(fēng)險(xiǎn)上加上表示模型復(fù)雜度的正則化項(xiàng).比如當(dāng)模型是條件概率分布,損失函數(shù)是對(duì)數(shù)損失函數(shù),模型復(fù)雜度由模型的先驗(yàn)概率表示時(shí),結(jié)構(gòu)風(fēng)險(xiǎn)最小化就等價(jià)于最大后驗(yàn)概率估計(jì).
    • 過擬合是指學(xué)習(xí)時(shí)選擇的模型所包含的參數(shù)過多,以致于對(duì)已知數(shù)據(jù)預(yù)測(cè)得很好,但對(duì)未知數(shù)據(jù)預(yù)測(cè)很差的現(xiàn)象.模型選擇旨在避免過擬合并提高模型的預(yù)測(cè)能力.
    • 正則化是模型選擇的典型方法.正則化項(xiàng)一般是模型復(fù)雜度的單調(diào)遞增函數(shù),比如模型參數(shù)向量的范數(shù).
    • 交叉驗(yàn)證是另一常用的模型選擇方法,可分為簡(jiǎn)單交叉驗(yàn)證,K折交叉驗(yàn)證,留一交叉驗(yàn)證等.
    回到頂部

    感知機(jī)

    • 感知機(jī)是二類分類的線性模型,屬于判別模型.感知機(jī)學(xué)習(xí)旨在求出將訓(xùn)練數(shù)據(jù)進(jìn)行線性劃分的分離超平面.是神經(jīng)網(wǎng)絡(luò)和支持向量機(jī)的基礎(chǔ).
    • 模型:,w叫作權(quán)值向量,b叫做偏置,sign是符號(hào)函數(shù).

      ?

    • 感知機(jī)的幾何解釋:wx+b對(duì)應(yīng)于特征空間中的一個(gè)分離超平面S,其中w是S的法向量,b是S的截距.S將特征空間劃分為兩個(gè)部分,位于兩個(gè)部分的點(diǎn)分別被分為正負(fù)兩類.
    • 策略:假設(shè)訓(xùn)練數(shù)據(jù)集是線性可分的,感知機(jī)的損失函數(shù)是誤分類點(diǎn)到超平面S的總距離.因?yàn)檎`分類點(diǎn)到超平面S的距離是,且對(duì)于誤分類的數(shù)據(jù)來說,總有成立,因此不考慮1/||w||,就得到感知機(jī)的損失函數(shù):,其中M是誤分類點(diǎn)的集合.感知機(jī)學(xué)習(xí)的策略就是選取使損失函數(shù)最小的模型參數(shù).
    • 算法:感知機(jī)的最優(yōu)化方法采用隨機(jī)梯度下降法.首先任意選取一個(gè)超平面w0,b0,然后不斷地極小化目標(biāo)函數(shù).在極小化過程中一次隨機(jī)選取一個(gè)誤分類點(diǎn)更新w,b,直到損失函數(shù)為0.,其中η表示步長(zhǎng).該算法的直觀解釋是:當(dāng)一個(gè)點(diǎn)被誤分類,就調(diào)整w,b使分離超平面向該誤分類點(diǎn)接近.感知機(jī)的解可以不同.

    • 對(duì)偶形式:假設(shè)原始形式中的w0和b0均為0,設(shè)逐步修改w和b共n次,令a=nη,最后學(xué)習(xí)到的w,b可以表示為.那么對(duì)偶算法就變?yōu)樵O(shè)初始a和b均為0,每次選取數(shù)據(jù)更新a和b直至沒有誤分類點(diǎn)為止.對(duì)偶形式的意義在于可以將訓(xùn)練集中實(shí)例間的內(nèi)積計(jì)算出來,存在Gram矩陣中,可以大大加快訓(xùn)練速度.

    回到頂部

    k近鄰法

    • k近鄰法根據(jù)其k個(gè)最近鄰的訓(xùn)練實(shí)例的類別,通過多數(shù)表決等方式進(jìn)行預(yù)測(cè).k值的選擇,距離度量及分類決策規(guī)則是k近鄰法的三個(gè)基本要素.當(dāng)k=1時(shí)稱為最近鄰算法.
    • 模型:當(dāng)訓(xùn)練集,距離度量,k值以及分類決策規(guī)則確定后,特征空間已經(jīng)根據(jù)這些要素被劃分為一些子空間,且子空間里每個(gè)點(diǎn)所屬的類也已被確定.
    • 策略:
  • 距離:特征空間中兩個(gè)實(shí)例點(diǎn)的距離是相似程度的反映,k近鄰算法一般使用歐氏距離,也可以使用更一般的Lp距離或Minkowski距離.
  • k值:k值較小時(shí),整體模型變得復(fù)雜,容易發(fā)生過擬合.k值較大時(shí),整體模型變得簡(jiǎn)單.在應(yīng)用中k一般取較小的值,通過交叉驗(yàn)證法選取最優(yōu)的k.
  • 分類決策規(guī)則:k近鄰中的分類決策規(guī)則往往是多數(shù)表決,多數(shù)表決規(guī)則等價(jià)于經(jīng)驗(yàn)風(fēng)險(xiǎn)最小化.
    • 算法:根據(jù)給定的距離度量,在訓(xùn)練集中找出與x最鄰近的k個(gè)點(diǎn),根據(jù)分類規(guī)則決定x的類別y.
    • kd樹:
  • kd樹就是一種對(duì)k維空間中的實(shí)例點(diǎn)進(jìn)行存儲(chǔ)以便對(duì)其進(jìn)行快速檢索的樹形數(shù)據(jù)結(jié)構(gòu).kd樹更適用于訓(xùn)練實(shí)例數(shù)遠(yuǎn)大于空間維數(shù)時(shí)的k近鄰搜索.
  • 構(gòu)造:可以通過如下遞歸實(shí)現(xiàn):在超矩形區(qū)域上選擇一個(gè)坐標(biāo)軸和此坐標(biāo)軸上的一個(gè)切分點(diǎn),確定一個(gè)超平面,該超平面將當(dāng)前超矩形區(qū)域切分為兩個(gè)子區(qū)域.在子區(qū)域上重復(fù)切分直到子區(qū)域內(nèi)沒有實(shí)例時(shí)終止.通常依次選擇坐標(biāo)軸和選定坐標(biāo)軸上的中位數(shù)點(diǎn)為切分點(diǎn),這樣可以得到平衡kd樹.
  • 搜索:從根節(jié)點(diǎn)出發(fā),若目標(biāo)點(diǎn)x當(dāng)前維的坐標(biāo)小于切分點(diǎn)的坐標(biāo)則移動(dòng)到左子結(jié)點(diǎn),否則移動(dòng)到右子結(jié)點(diǎn),直到子結(jié)點(diǎn)為葉結(jié)點(diǎn)為止.以此葉結(jié)點(diǎn)為"當(dāng)前最近點(diǎn)",遞歸地向上回退,在每個(gè)結(jié)點(diǎn):(a)如果該結(jié)點(diǎn)比當(dāng)前最近點(diǎn)距離目標(biāo)點(diǎn)更近,則以該結(jié)點(diǎn)為"當(dāng)前最近點(diǎn)"(b)"當(dāng)前最近點(diǎn)"一定存在于該結(jié)點(diǎn)一個(gè)子結(jié)點(diǎn)對(duì)應(yīng)的區(qū)域,檢查該結(jié)點(diǎn)的另一子結(jié)點(diǎn)對(duì)應(yīng)的區(qū)域是否與以目標(biāo)點(diǎn)為球心,以目標(biāo)點(diǎn)與"當(dāng)前最近點(diǎn)"間的距離為半徑的超球體相交.如果相交,移動(dòng)到另一個(gè)子結(jié)點(diǎn),如果不相交,向上回退.持續(xù)這個(gè)過程直到回退到根結(jié)點(diǎn),最后的"當(dāng)前最近點(diǎn)"即為最近鄰點(diǎn).
  • 回到頂部

    樸素貝葉斯

    • 樸素貝葉斯是基于貝葉斯定理特征條件獨(dú)立假設(shè)的分類方法.首先學(xué)習(xí)輸入/輸出的聯(lián)合概率分布,然后基于此模型,對(duì)給定的輸入x,利用貝葉斯定理求出后驗(yàn)概率最大的輸出y.屬于生成模型.
    • 模型:首先學(xué)習(xí)先驗(yàn)概率分布,然后學(xué)習(xí)條件概率分布.如果估計(jì)實(shí)際,需要指數(shù)級(jí)的計(jì)算,所以樸素貝葉斯法對(duì)條件概率分布作了條件獨(dú)立性的假設(shè),上式變成.在分類時(shí),通過學(xué)習(xí)到的模型計(jì)算后驗(yàn)概率分布,由貝葉斯定理得到,將條件獨(dú)立性假設(shè)得到的等式代入,并且注意到分母都是相同的,所以得到樸素貝葉斯分類器:
    • 樸素貝葉斯將實(shí)例分到后驗(yàn)概率最大的類中,這等價(jià)于期望風(fēng)險(xiǎn)最小化.
    • 算法:使用極大似然估計(jì)法估計(jì)相應(yīng)的先驗(yàn)概率和條件概率,計(jì)算條件獨(dú)立性假設(shè)下的實(shí)例各個(gè)取值的可能性,選取其中的最大值作為輸出.
    • 用極大似然估計(jì)可能會(huì)出現(xiàn)所要估計(jì)的概率值為0的情況,在累乘后會(huì)影響后驗(yàn)概率的計(jì)算結(jié)果,使分類產(chǎn)生偏差.可以采用貝葉斯估計(jì),在隨機(jī)變量各個(gè)取值的頻數(shù)上賦予一個(gè)正數(shù)..Sj為j屬性可能取值數(shù)量,當(dāng)λ=0時(shí)就是極大似然估計(jì).常取λ=1,稱為拉普拉斯平滑.
    • 如果是連續(xù)值的情況,可以假設(shè)連續(xù)變量服從高斯分布,然后用訓(xùn)練數(shù)據(jù)估計(jì)參數(shù).

      ?

    回到頂部

    決策樹

    • 決策樹是一種基本的分類與回歸方法.它可以認(rèn)為是if-then規(guī)則的集合,也可以認(rèn)為是定義在特征空間與類空間上的條件概率分布.主要優(yōu)點(diǎn)是模型具有可讀性,分類速度快.
    • 模型:分類決策樹由結(jié)點(diǎn)有向邊組成.結(jié)點(diǎn)分為內(nèi)部結(jié)點(diǎn)(表示一個(gè)特征或?qū)傩?和葉結(jié)點(diǎn)(表示一個(gè)類).決策樹的路徑具有互斥且完備的性質(zhì).
    • 策略:決策樹學(xué)習(xí)本質(zhì)上是從訓(xùn)練數(shù)據(jù)集中歸納出一組分類規(guī)則.我們需要的是一個(gè)與訓(xùn)練數(shù)據(jù)矛盾較小,同時(shí)具有很好的泛化能力的決策樹.從所有可能的決策樹中選取最優(yōu)決策樹是NP完全問題,所以現(xiàn)實(shí)中常采用啟發(fā)式方法近似求解.
    • 算法:決策樹學(xué)習(xí)算法包含特征選擇,決策樹的生成決策樹的剪枝過程.生成只考慮局部最優(yōu),剪枝則考慮全局最優(yōu).
    • 特征選擇:如果利用一個(gè)特征進(jìn)行分類的結(jié)果與隨機(jī)分類的結(jié)果沒有很大差別,則稱這個(gè)特征是沒有分類能力的.扔掉這樣的特征對(duì)決策樹學(xué)習(xí)的精度影響不大.
  • 信息熵:熵是衡量隨機(jī)變量不確定性的度量.熵越大,隨機(jī)變量的不確定性就越大.信息熵是信息量的期望.條件熵表示在已知隨機(jī)變量X的條件下隨機(jī)變量Y的不確定性.
  • 信息增益:表示得知特征X的信息而使得類Y的信息的不確定性減少的程度.定義為集合D的經(jīng)驗(yàn)熵與特征A在給定條件下D的經(jīng)驗(yàn)條件熵之差,也就是訓(xùn)練數(shù)據(jù)集中類與特征的互信息.
  • 信息增益算法:計(jì)算數(shù)據(jù)集D的經(jīng)驗(yàn)熵,計(jì)算特征A對(duì)數(shù)據(jù)集D的經(jīng)驗(yàn)條件熵,計(jì)算信息增益,選取信息增益最大的特征.
  • 信息增益比:信息增益值的大小是相對(duì)于訓(xùn)練數(shù)據(jù)集而言的,并無絕對(duì)意義.使用信息增益比可以對(duì)這一問題進(jìn)行校正.

    ?

    • 決策樹的生成:
  • ID3算法:核心是在決策樹各個(gè)結(jié)點(diǎn)上應(yīng)用信息增益準(zhǔn)則選擇信息增益最大且大于閾值的特征,遞歸地構(gòu)建決策樹.ID3相當(dāng)于用極大似然法進(jìn)行概率模型的選擇.由于算法只有樹的生成,所以容易產(chǎn)生過擬合.
  • C4.5算法:C4.5算法與ID3算法相似,改用信息增益比來選擇特征.
    • 決策樹的剪枝:
  • 在學(xué)習(xí)時(shí)過多考慮如何提高對(duì)訓(xùn)練數(shù)據(jù)的正確分類,從而構(gòu)建出過于復(fù)雜的決策樹,產(chǎn)生過擬合現(xiàn)象.解決方法是對(duì)已生成的決策樹進(jìn)行簡(jiǎn)化,稱為剪枝.
  • 設(shè)樹的葉結(jié)點(diǎn)個(gè)數(shù)為|T|,每個(gè)葉結(jié)點(diǎn)有Nt個(gè)樣本點(diǎn),其中k類樣本點(diǎn)有Ntk個(gè),剪枝往往通過極小化決策樹整體的損失函數(shù)來實(shí)現(xiàn),其中經(jīng)驗(yàn)熵.剪枝通過加入a|T|項(xiàng)來考慮模型復(fù)雜度,實(shí)際上就是用正則化的極大似然估計(jì)進(jìn)行模型選擇.
  • 剪枝算法:剪去某一子結(jié)點(diǎn),如果生成的新的整體樹的損失函數(shù)值小于原樹,則進(jìn)行剪枝,直到不能繼續(xù)為止.具體可以由動(dòng)態(tài)規(guī)劃實(shí)現(xiàn).
    • CART算法:
  • CART既可以用于分類也可以用于回歸.它假設(shè)決策樹是二叉樹,內(nèi)部結(jié)點(diǎn)特征的取值為"是"和"否".遞歸地構(gòu)建二叉樹,對(duì)回歸樹用平方誤差最小化準(zhǔn)則,對(duì)分類數(shù)用基尼指數(shù)最小化準(zhǔn)則.
  • 回歸樹的生成:在訓(xùn)練數(shù)據(jù)集所在的輸入空間中,遞歸地將每個(gè)區(qū)域劃分為兩個(gè)子區(qū)域.選擇第j個(gè)變量和它取的值s作為切分變量和切分點(diǎn),并定義兩個(gè)區(qū)域,遍歷變量j,對(duì)固定的j掃描切分點(diǎn)s,求解.用選定的對(duì)(j,s)劃分區(qū)域并決定相應(yīng)的輸出值,直到滿足停止條件.
  • 基尼指數(shù):假設(shè)有K個(gè)類,樣本屬于第k類的概率為pk,則概率分布的基尼指數(shù)為,表示不確定性.在特征A的條件下集合D的基尼指數(shù)定義為,表示分割后集合D的不確定性.基尼指數(shù)越大,樣本集合的不確定性也就越大.
  • 分類樹的生成:從根結(jié)點(diǎn)開始,遞歸進(jìn)行以下操作:設(shè)結(jié)點(diǎn)的訓(xùn)練數(shù)據(jù)集為D,對(duì)每個(gè)特征A和其可能取的每個(gè)值a,計(jì)算A=a時(shí)的基尼指數(shù),選擇基尼指數(shù)最小的特征及其對(duì)應(yīng)的切分點(diǎn)作為最優(yōu)特征最優(yōu)切分點(diǎn),生成兩個(gè)子結(jié)點(diǎn),直至滿足停止條件.停止條件一般是結(jié)點(diǎn)中的樣本個(gè)數(shù)小于閾值,或樣本集的基尼指數(shù)小于閾值,或沒有更多特征.

  • CART剪枝:
    Tt表示以t為根結(jié)點(diǎn)的子樹,|Tt|是Tt的葉結(jié)點(diǎn)個(gè)數(shù).可以證明當(dāng)時(shí),Tt與t有相同的損失函數(shù)值,且t的結(jié)點(diǎn)少,因此t比Tt更可取,對(duì)Tt進(jìn)行剪枝.自下而上地對(duì)各內(nèi)部結(jié)點(diǎn)t計(jì)算,并令a=min(g(t)),自上而下地訪問內(nèi)部節(jié)點(diǎn)t,如果有g(shù)(t)=a,進(jìn)行剪枝,并對(duì)t以多數(shù)表決法決定其類,得到子樹T,如此循環(huán)地生成一串子樹序列,直到新生成的T是由根結(jié)點(diǎn)單獨(dú)構(gòu)成的樹為止.利用交叉驗(yàn)證法在子樹序列中選取最優(yōu)子樹.
    • 如果是連續(xù)值的情況,一般用二分法作為結(jié)點(diǎn)來劃分.
    回到頂部

    logistic回歸和最大熵模型

    • 邏輯斯諦分布:分布函數(shù)f(x)以點(diǎn)(μ,1/2)為中心對(duì)稱,γ的值越小,曲線在中心附近增長(zhǎng)得越快.
    • 邏輯斯諦回歸模型:對(duì)于給定的輸入x,根據(jù)和計(jì)算出兩個(gè)條件概率值的大小,將x分到概率值較大的那一類.將偏置b加入到權(quán)值向量w中,并在x的最后添加常數(shù)項(xiàng)1,得到和.如果某事件發(fā)生的概率是p,則該事件發(fā)生的幾率(此處幾率指該事件發(fā)生概率與不發(fā)生概率之比)是p/1-p,對(duì)數(shù)幾率是log(p/1-p),那么,也就是說在邏輯斯諦回歸模型中,輸出Y=1的對(duì)數(shù)幾率是輸入x的線性函數(shù),線性函數(shù)值越接近正無窮,概率值就越接近1,反之則越接近0.
    • 似然估計(jì):給定x的情況下參數(shù)θ是真實(shí)參數(shù)的可能性.
    • 模型參數(shù)估計(jì):對(duì)于給定的二分類訓(xùn)練數(shù)據(jù)集,對(duì)數(shù)似然函數(shù)為,也就是損失函數(shù).其中P(Y=1|x)=π(x),對(duì)L(w)求極大值,就可以得到w的估計(jì)值.問題變成了以對(duì)數(shù)似然函數(shù)為目標(biāo)函數(shù)的最優(yōu)化問題.
    • 多項(xiàng)邏輯斯諦回歸:?當(dāng)問題是多分類問題時(shí),可以作如下推廣:設(shè)Y有K類可能取值,,,實(shí)際上就是one-vs-all的思想,將其他所有類當(dāng)作一個(gè)類,問題轉(zhuǎn)換為二分類問題.

    • 最大熵原理:學(xué)習(xí)概率模型時(shí),在所有可能的概率模型中,熵最大的模型是最好的模型.直觀地,最大熵原理認(rèn)為模型首先要滿足已有的事實(shí),即約束條件.在沒有更多信息的情況下,那些不確定的部分都是"等可能的".

    • 最大熵模型:給定訓(xùn)練數(shù)據(jù)集,可以確定聯(lián)合分布P(X,Y)的經(jīng)驗(yàn)分布和邊緣分布P(X)的經(jīng)驗(yàn)分布,其中v表示頻數(shù),N表示樣本容量.用特征函數(shù)f(x,y)=1描述x與y滿足某一事實(shí),可以得到特征函數(shù)關(guān)于P(X,Y)的經(jīng)驗(yàn)分布的期望值和關(guān)于模型P(Y|X)與P(X)的經(jīng)驗(yàn)分布的期望值,假設(shè)兩者相等,就得到了約束條件.定義在條件概率分布P(Y|X)上的條件熵為,則條件熵最大的模型稱為最大熵模型.
    • 最大熵模型的學(xué)習(xí)就是求解最大熵模型的過程.等價(jià)于約束最優(yōu)化問題,將求最大值問題改為等價(jià)的求最小值問題.引入拉格朗日乘子將原始問題轉(zhuǎn)換為無約束最優(yōu)化的對(duì)偶問題.首先求解內(nèi)部的極小化問題,即求L(P,W)對(duì)P(y|x)的偏導(dǎo)數(shù),并令偏導(dǎo)數(shù)等于0,解得.可以證明對(duì)偶函數(shù)等價(jià)于對(duì)數(shù)似然函數(shù),那么對(duì)偶函數(shù)極大化等價(jià)于最大熵模型的極大似然估計(jì).之后可以用最優(yōu)化算法求解得到w.

    • 最大熵模型與邏輯斯諦回歸模型有類似的形式,它們又稱為對(duì)數(shù)線性模型.模型學(xué)習(xí)就是在給定的訓(xùn)練數(shù)據(jù)條件下對(duì)模型進(jìn)行極大似然估計(jì)或正則化的極大似然估計(jì).

    • 算法:似然函數(shù)是光滑的凸函數(shù),因此多種最優(yōu)化方法都適用.
  • 改進(jìn)的迭代尺度法(IIS):假設(shè)當(dāng)前的參數(shù)向量是w,如果能找到一種方法w->w+δ使對(duì)數(shù)似然函數(shù)值變大,就可以重復(fù)使用這一方法,直到找到最大值.
  • 邏輯斯諦回歸常應(yīng)用梯度下降法,牛頓法或擬牛頓法.
  • 回到頂部

    支持向量機(jī)

    • 模型:支持向量機(jī)(SVM)是一種二類分類模型.它的基本模型是定義在特征空間上的間隔最大的線性分類器.支持向量機(jī)還包括核技巧,使它成為實(shí)質(zhì)上的非線性分類器.分離超平面,分類決策函數(shù).
    • 策略:間隔最大化,可形式化為一個(gè)求解凸二次規(guī)劃的問題,也等價(jià)于正則化的合頁損失函數(shù)的最小化問題.
    • 當(dāng)訓(xùn)練數(shù)據(jù)線性可分時(shí),通過硬間隔最大化,學(xué)習(xí)出線性可分支持向量機(jī).當(dāng)訓(xùn)練數(shù)據(jù)近似線性可分時(shí),通過軟間隔最大化,學(xué)習(xí)出線性支持向量機(jī).當(dāng)訓(xùn)練數(shù)據(jù)線性不可分時(shí),通過使用核技巧及軟間隔最大化,學(xué)習(xí)非線性支持向量機(jī).
    • 核技巧:當(dāng)輸入空間為歐式空間或離散集合,特征空間為希爾伯特空間時(shí),核函數(shù)表示將輸入從輸入空間映射到特征空間得到的特征向量之間的內(nèi)積.通過核函數(shù)學(xué)習(xí)非線性支持向量機(jī)等價(jià)于在高維的特征空間中學(xué)習(xí)線性支持向量機(jī).這樣的方法稱為核技巧.
    • 考慮一個(gè)二類分類問題,假設(shè)輸入空間與特征空間為兩個(gè)不同的空間,輸入空間為歐氏空間或離散集合,特征空間為歐氏空間或希爾伯特空間.支持向量機(jī)都將輸入映射為特征向量,所以支持向量機(jī)的學(xué)習(xí)是在特征空間進(jìn)行的.
    • 支持向量機(jī)的最優(yōu)化問題一般通過對(duì)偶問題化為凸二次規(guī)劃問題求解,具體步驟是將等式約束條件代入優(yōu)化目標(biāo),通過求偏導(dǎo)求得優(yōu)化目標(biāo)在不等式約束條件下的極值.
    • 線性可分支持向量機(jī):
  • 當(dāng)訓(xùn)練數(shù)據(jù)集線性可分時(shí),存在無窮個(gè)分離超平面可將兩類數(shù)據(jù)正確分開.利用間隔最大化得到唯一最優(yōu)分離超平面和相應(yīng)的分類決策函數(shù)稱為線性可分支持向量機(jī).
  • 函數(shù)間隔:一般來說,一個(gè)點(diǎn)距離分離超平面的遠(yuǎn)近可以表示分類預(yù)測(cè)的確信程度.在超平面確定的情況下,|wx+b|能夠相對(duì)地表示點(diǎn)x距離超平面的遠(yuǎn)近,而wx+b與y的符號(hào)是否一致能夠表示分類是否正確.所以可用來表示分類的正確性及確信度,這就是函數(shù)間隔.注意到即使超平面不變,函數(shù)間隔仍會(huì)受w和b的絕對(duì)大小影響.
  • 幾何間隔:一般地,當(dāng)樣本點(diǎn)被超平面正確分類時(shí),點(diǎn)x與超平面的距離是,其中||w||是w的l2范數(shù).這就是幾何間隔的定義.定義超平面關(guān)于訓(xùn)練數(shù)據(jù)集T的幾何間隔為超平面關(guān)于T中所有樣本點(diǎn)的幾何間隔之最小值.可知,當(dāng)||w||=1時(shí)幾何間隔和函數(shù)間隔相等.

  • 硬間隔最大化:對(duì)線性可分的訓(xùn)練集而言,這里的間隔最大化又稱為硬間隔最大化.直觀解釋是對(duì)訓(xùn)練集找到幾何間隔最大的超平面意味著以充分大的確信度對(duì)訓(xùn)練數(shù)據(jù)進(jìn)行分類.求最大間隔分離超平面即約束最優(yōu)化問題:,將幾何間隔用函數(shù)間隔表示,并且注意到函數(shù)間隔的取值并不影響最優(yōu)化問題的解,不妨令函數(shù)間隔=1,并讓最大化1/||w||等價(jià)為最小化||w||^2/2,問題變?yōu)?strong>凸二次規(guī)劃問題.

  • 支持向量和間隔邊界:與分離超平面距離最近的樣本點(diǎn)的實(shí)例稱為支持向量.支持向量是使最優(yōu)化問題中的約束條件等號(hào)成立的點(diǎn).因此對(duì)y=+1的正例點(diǎn)和y=-1的負(fù)例點(diǎn),支持向量分別在超平面H1:wx+b=+1和H2:wx+b=-1.H1和H2平行,兩者之間形成一條長(zhǎng)帶,長(zhǎng)帶的寬度稱為間隔,H1和H2稱為間隔邊界.在決定分離超平面時(shí)只有支持向量起作用,所以支持向量機(jī)是由很少的"重要的"訓(xùn)練樣本確定的.由對(duì)偶問題同樣可以得到支持向量一定在間隔邊界上.

  • 對(duì)偶算法:?引進(jìn)拉格朗日乘子,定義拉格朗日函數(shù),根據(jù)拉格朗日對(duì)偶性,原始問題的對(duì)偶問題是極大極小問題:.先求對(duì)w,b的極小值.將L(w,b,a)分別對(duì)w,b求偏導(dǎo)數(shù)并令其等于0,得,代入拉格朗日函數(shù)得

    ,這就是極小值.接下來對(duì)極小值求對(duì)a的極大,即是對(duì)偶問題.將求極大轉(zhuǎn)換為求極小.由KKT條件成立得到,其中j為使aj*>0的下標(biāo)之一.所以問題就變?yōu)榍髮?duì)偶問題的解a*,再求得原始問題的解w*,b*,從而得分離超平面及分類決策函數(shù)可以看出w*和b*都只依賴訓(xùn)練數(shù)據(jù)中ai*>0的樣本點(diǎn)(xi,yi),這些實(shí)例點(diǎn)xi被稱為支持向量.

    • 線性支持向量機(jī):
  • 如果訓(xùn)練數(shù)據(jù)是線性不可分的,那么上述方法中的不等式約束并不能都成立,需要修改硬間隔最大化,使其成為軟間隔最大化.
  • 線性不可分意味著某些特異點(diǎn)不能滿足函數(shù)間隔大于等于1的約束條件,可以對(duì)每個(gè)樣本點(diǎn)引進(jìn)一個(gè)松弛變量,使函數(shù)間隔加上松弛變量大于等于1,約束條件變?yōu)?同時(shí)對(duì)每個(gè)松弛變量,支付一個(gè)代價(jià),目標(biāo)函數(shù)變?yōu)?其中C>0稱為懲罰參數(shù),C值越大對(duì)誤分類的懲罰也越大.新目標(biāo)函數(shù)包含了兩層含義:使間隔盡量大,同時(shí)使誤分類點(diǎn)的個(gè)數(shù)盡量小.
  • 軟間隔最大化:學(xué)習(xí)問題變成如下凸二次規(guī)劃問題:,可以證明w的解是唯一的,但b的解存在一個(gè)區(qū)間.線性支持向量機(jī)包含線性可分支持向量機(jī),因此適用性更廣.

  • 對(duì)偶算法:?原始問題的對(duì)偶問題是,構(gòu)造拉格朗日函數(shù),先求對(duì)w,b,ξ的極小值,分別求偏導(dǎo)并令導(dǎo)數(shù)為0,得,代入原函數(shù),再對(duì)極小值求a的極大值,得到,利用后三條約束消去μ,再將求極大轉(zhuǎn)換為求極小,得到對(duì)偶問題.由KKT條件成立可以得到,j是滿足0<aj*<C的下標(biāo)之一.問題就變?yōu)檫x擇懲罰參數(shù)C>0,求得對(duì)偶問題(凸二次規(guī)劃問題)的最優(yōu)解a*,代入計(jì)算w*和b*,求得分離超平面和分類決策函數(shù).因?yàn)閎的解并不唯一,所以實(shí)際計(jì)算b*時(shí)可以取所有樣本點(diǎn)上的平均值.

  • 支持向量:在線性不可分的情況下,將對(duì)應(yīng)與ai*>0的樣本點(diǎn)(xi,yi)的實(shí)例點(diǎn)xi稱為支持向量.軟間隔的支持向量或者在間隔邊界上,或者在間隔邊界與分類超平面之間,或者再分離超平面誤分一側(cè).

  • 合頁損失函數(shù):可以認(rèn)為是0-1損失函數(shù)的上界,而線性支持向量機(jī)可以認(rèn)為是優(yōu)化合頁損失函數(shù)構(gòu)成的目標(biāo)函數(shù).

    • 非線性支持向量機(jī):
  • 如果分類問題是非線性的,就要使用非線性支持向量機(jī).主要特點(diǎn)是使用核技巧.
  • 非線性分類問題:用線性分類方法求解非線性分類問題分為兩步:首先使用一個(gè)變換將原空間的數(shù)據(jù)映射到新空間,然后在新空間里用線性分類學(xué)習(xí)方法從訓(xùn)練數(shù)據(jù)中學(xué)習(xí)分類模型.
  • 核函數(shù):設(shè)X是輸入空間(歐式空間的子集或離散集合),H為特征空間(希爾伯特空間),一般是高維甚至無窮維的.如果存在一個(gè)從X到H的映射使得對(duì)所有x,z屬于X,函數(shù)K(x,z)滿足條件,點(diǎn)乘代表內(nèi)積,則稱K(x,z)為核函數(shù).
  • 核技巧:基本思想是通過一個(gè)非線性變換將輸入空間對(duì)應(yīng)于一個(gè)特征空間,使得在輸入空間中的超曲面模型對(duì)應(yīng)于特征空間中的超平面模型(支持向量機(jī)).在學(xué)習(xí)和預(yù)測(cè)中只定義核函數(shù)K(x,z),而不顯式地定義映射函數(shù).對(duì)于給定的核K(x,z),特征空間和映射函數(shù)的取法并不唯一.注意到在線性支持向量機(jī)的對(duì)偶問題中,目標(biāo)函數(shù)和決策函數(shù)都只涉及輸入實(shí)例與實(shí)例之間的內(nèi)積,xi`xj可以用核函數(shù)K(xi,xj)=Ф(xi)`Ф(xj)來代替.當(dāng)映射函數(shù)是非線性函數(shù)時(shí),學(xué)習(xí)到的含有核函數(shù)的支持向量機(jī)是非線性分類模型.在實(shí)際應(yīng)用中,往往依賴領(lǐng)域知識(shí)直接選擇核函數(shù).
  • 正定核:通常所說的核函數(shù)是指正定核函數(shù).只要滿足正定核的充要條件,那么給定的函數(shù)K(x,z)就是正定核函數(shù).設(shè)K是定義在X*X上的對(duì)稱函數(shù),如果任意xi屬于X,K(x,z)對(duì)應(yīng)的Gram矩陣半正定矩陣,則稱K(x,z)是正定核.這一定義在構(gòu)造核函數(shù)時(shí)很有用,但要驗(yàn)證一個(gè)具體函數(shù)是否為正定核函數(shù)并不容易,所以在實(shí)際問題中往往應(yīng)用已有的核函數(shù).
  • 算法:選取適當(dāng)?shù)暮撕瘮?shù)K(x,z)和適當(dāng)?shù)膮?shù)C,將線性支持向量機(jī)對(duì)偶形式中的內(nèi)積換成核函數(shù),構(gòu)造并求解最優(yōu)化問題,選擇最優(yōu)解a*的一個(gè)正分量0<aj*<C計(jì)算,構(gòu)造決策函數(shù).
    • 常用核函數(shù):
  • 多項(xiàng)式核函數(shù)(polynomial?kernel?function):,對(duì)應(yīng)的支持向量機(jī)是一個(gè)p次多項(xiàng)式分類器,分類決策函數(shù)為.
  • 高斯核函數(shù)(Gaussian?krenel?function):,對(duì)應(yīng)的支持向量機(jī)是高斯徑向基函數(shù)(RBF)分類器.分類決策函數(shù)為.

  • 字符串核函數(shù)(string kernel function):?核函數(shù)不僅可以定義在歐氏空間上,還可以定義在離散數(shù)據(jù)的集合上.字符串核函數(shù)給出了字符串中長(zhǎng)度等于n的所有子串組成的特征向量的余弦相似度.

    • 序列最小最優(yōu)化(SMO)算法:
  • SMO是一種快速求解凸二次規(guī)劃問題的算法.基本思路是:如果所有變量都滿足此優(yōu)化問題的KKT條件,那么解就得到了.否則,選擇兩個(gè)變量,固定其他變量,針對(duì)這兩個(gè)變量構(gòu)建一個(gè)二次規(guī)劃問題.不斷地將原問題分解為子問題并對(duì)子問題求解,就可以求解原問題.注意子問題兩個(gè)變量中只有一個(gè)是自由變量,另一個(gè)由等式約束確定.
  • 兩個(gè)變量二次規(guī)劃的求解方法:假設(shè)選擇的兩個(gè)變量是a1,a2,其他變量是固定的,于是得到子問題,ε是常數(shù),目標(biāo)函數(shù)式省略了不含a1,a2的常數(shù)項(xiàng).考慮不等式約束和等式約束,要求的是目標(biāo)函數(shù)在一條平行于對(duì)角線的線段上的最優(yōu)值,問題變?yōu)?strong>單變量的最優(yōu)化問題.假設(shè)初始可行解為aold,最優(yōu)解為anew,考慮沿著約束方向未經(jīng)剪輯的最優(yōu)解anew,unc(即未考慮不等式約束).對(duì)該問題求偏導(dǎo)數(shù),并令導(dǎo)數(shù)為0,代入原式,令,得到,經(jīng)剪輯后a2的解是,L與H是a2new所在的對(duì)角線段端點(diǎn)的界.并解得.
  • 變量的選擇方法:在每個(gè)子問題中選擇兩個(gè)變量?jī)?yōu)化,其中至少一個(gè)變量是違反KKT條件的.第一個(gè)變量的選取標(biāo)準(zhǔn)是違反KKT條件最嚴(yán)重的樣本點(diǎn),第二個(gè)變量的選取標(biāo)準(zhǔn)是希望能使該變量有足夠大的變化,一般可以選取使對(duì)應(yīng)的|E1-E2|最大的點(diǎn).在每次選取完點(diǎn)后,更新閾值b和差值Ei.
  • 回到頂部

    提升方法

    • 提升(boosting)是一種常用的統(tǒng)計(jì)學(xué)習(xí)方法,是集成學(xué)習(xí)的一種.它通過改變訓(xùn)練樣本的權(quán)重(概率分布),學(xué)習(xí)多個(gè)弱分類器(基本分類器),并將這些分類器線性組合來構(gòu)成一個(gè)強(qiáng)分類器提高分類的性能.
    • AdaBoost:
  • AdaBoost提高那些被前一輪弱分類器錯(cuò)誤分類樣本的權(quán)值,而降低那些被正確分類樣本的權(quán)值.然后采取加權(quán)多數(shù)表決的方法組合弱分類器.
  • 算法:首先假設(shè)訓(xùn)練數(shù)據(jù)集具有均勻的權(quán)值分布D1,使用具有權(quán)值分布Dm的訓(xùn)練數(shù)據(jù)集學(xué)習(xí)得到基本分類器Gm(x),計(jì)算分類誤差率和Gm(x)的系數(shù),更新訓(xùn)練數(shù)據(jù)集的權(quán)值分布,其中Zm是使Dm+1成為概率分布的規(guī)范化因子.重復(fù)上述操作M次后得到M個(gè)弱分類器,構(gòu)建線性組合得到最終分類器.
  • AdaBoost算法也可以理解成模型為加法模型,損失函數(shù)為指數(shù)函數(shù),學(xué)習(xí)算法為前向分步算法的二類分類學(xué)習(xí)方法.
    • 前向分步算法:考慮加法模型,其中b(x,γm)為基函數(shù),γm為基函數(shù)的參數(shù),βm為基函數(shù)的系數(shù).在給定損失函數(shù)L(y,f(x))的條件下,學(xué)習(xí)加法模型就是求解損失函數(shù)極小化問題前向分步算法求解的想法是:從前往后,每一步只學(xué)習(xí)一個(gè)基函數(shù)及其系數(shù),優(yōu)化,得到參數(shù)βm和γm,更新,逐步逼近優(yōu)化目標(biāo).最終得到加法模型.
    • 提升樹:
  • 提升樹是模型為加法模型,算法為前向分布算法,基函數(shù)為決策樹的提升方法.第m步的模型是,通過經(jīng)驗(yàn)風(fēng)險(xiǎn)極小化確定下一棵決策樹的參數(shù).不同問題的提升樹學(xué)習(xí)算法主要區(qū)別在于使用的損失函數(shù)不同.
  • 二類分類問題:只需將AdaBoost算法中的基本分類器限制為二類分類數(shù)即可.

  • 回歸問題:如果將輸入空間劃分為J個(gè)互不相交的區(qū)域,并且在每個(gè)區(qū)域上確定輸出的常量Cj,那么樹可表示為,其中.提升樹采用前向分步算法:.當(dāng)采用平方誤差損失函數(shù)時(shí),損失變?yōu)?其中r是當(dāng)前模型擬合數(shù)據(jù)的殘差.每一步都只需擬合殘差學(xué)習(xí)一個(gè)回歸樹即可.

  • 梯度提升樹(GBDT):?利用最速下降法的近似方法來實(shí)現(xiàn)每一步的優(yōu)化,關(guān)鍵在于用損失函數(shù)的負(fù)梯度在當(dāng)前模型的值作為回歸問題中提升樹算法中的殘差的近似值,每一步以此來估計(jì)回歸樹葉結(jié)點(diǎn)區(qū)域以擬合殘差的近似值,并利用線性搜索估計(jì)葉結(jié)點(diǎn)區(qū)域的值使損失函數(shù)最小化,然后更新回歸樹即可.

    • AdaBoost產(chǎn)生的基礎(chǔ)學(xué)習(xí)器有好有壞,因此加入權(quán)重.提升樹產(chǎn)生的基礎(chǔ)學(xué)習(xí)器是一個(gè)不斷減少殘差的過程,并不是一個(gè)單獨(dú)的分類器,因此一般不加權(quán)重.
    • XGBoost:相比傳統(tǒng)GBDT有以下優(yōu)點(diǎn):
  • 在優(yōu)化時(shí)用到了二階導(dǎo)數(shù)信息.
  • 在代價(jià)函數(shù)里加入了正則項(xiàng).
  • 每次迭代后都將葉子結(jié)點(diǎn)的權(quán)重乘上一個(gè)系數(shù),削弱每棵樹的影響.
  • 列抽樣.
  • 在訓(xùn)練前對(duì)數(shù)據(jù)進(jìn)行排序,保存為block結(jié)構(gòu),并行地對(duì)各個(gè)特征進(jìn)行增益計(jì)算.
  • 回到頂部

    EM算法

    • EM算法是一種迭代算法,用于含有隱變量的概率模型參數(shù)的極大似然估計(jì).每次迭代由兩步組成:E步,求期望(expectation),M步,求極大值(maximization),直至收斂為止.
    • 隱變量:不能被直接觀察到,但是對(duì)系統(tǒng)的狀態(tài)和能觀察到的輸出存在影響的一種東西.
    • 算法:
  • 選擇參數(shù)的初始值θ(0),開始迭代.注意EM算法對(duì)初值是敏感的.
  • E步:θ(i)為第i次迭代參數(shù)θ的估計(jì)值,在第i+1次迭代的E步,計(jì)算,P(Z|Y,θ(i))是在給定觀測(cè)數(shù)據(jù)Y和當(dāng)前參數(shù)估計(jì)θ(i)下隱變量數(shù)據(jù)Z的條件概率分布.
  • M步:求使Q(θ,θ(i))極大化的θ,確定第i+1次迭代的參數(shù)的估計(jì)值
  • 重復(fù)2和3直到收斂,一般是對(duì)較小的正數(shù)ε1和ε2滿足則停止迭代.
    • EM算法是通過不斷求解下界的極大化逼近求解對(duì)數(shù)似然函數(shù)極大化的算法.可以用于生成模型的非監(jiān)督學(xué)習(xí).生成模型由聯(lián)合概率分布P(X,Y)表示.X為觀測(cè)數(shù)據(jù),Y為未觀測(cè)數(shù)據(jù).
    • 高斯混合模型(GMM):高斯混合模型是指具有如下形式的概率分布模型:.其中,稱為第k個(gè)分模型.
    • 高斯混合模型參數(shù)估計(jì)的EM算法:

  • ?取參數(shù)的初始值開始迭代

  • E步:計(jì)算分模型k對(duì)觀測(cè)數(shù)據(jù)yj的響應(yīng)度

  • ?

    M步:計(jì)算新一輪迭代的模型參數(shù)

  • ?重復(fù)2和3直到對(duì)數(shù)似然函數(shù)收斂.

  • 回到頂部

    隱馬爾可夫模型(HMM)

    • 隱馬爾可夫模型是關(guān)于時(shí)序的概率模型,描述由一個(gè)隱藏的馬爾可夫鏈隨機(jī)生成不可觀測(cè)的狀態(tài)序列,再由各個(gè)狀態(tài)生成一個(gè)觀測(cè)而產(chǎn)生觀測(cè)隨機(jī)序列的過程.
    • 設(shè)Q是所有可能的狀態(tài)的集合,V是所有可能的觀測(cè)的集合,I是長(zhǎng)度為T的狀態(tài)序列,O是對(duì)應(yīng)的觀測(cè)序列,A是狀態(tài)轉(zhuǎn)移概率矩陣,aij表示在時(shí)刻t處于狀態(tài)qi的條件下在時(shí)刻t+1轉(zhuǎn)移到狀態(tài)qj的概率.B是觀測(cè)概率矩陣,bij是在時(shí)刻t處于狀態(tài)qj的條件下生成觀測(cè)vk的概率.π是初始狀態(tài)概率向量,πi表示時(shí)刻t=1處于狀態(tài)qi的概率.隱馬爾可夫模型由初始狀態(tài)概率向量π,狀態(tài)轉(zhuǎn)移概率矩陣A以及觀測(cè)概率矩陣B確定.π和A決定即隱藏的馬爾可夫鏈,生成不可觀測(cè)的狀態(tài)序列.B決定如何從狀態(tài)生成觀測(cè),與狀態(tài)序列綜合確定了觀測(cè)序列.因此,隱馬爾可夫模型可以用三元符號(hào)表示.
    • 隱馬爾可夫模型作了兩個(gè)基本假設(shè):

  • 齊次馬爾可夫性假設(shè):假設(shè)隱藏的馬爾可夫鏈在任意時(shí)刻t的狀態(tài)只依賴于其前一時(shí)刻的狀態(tài).
  • 觀測(cè)獨(dú)立性假設(shè):假設(shè)任意時(shí)刻的觀測(cè)只依賴于該時(shí)刻的馬爾可夫鏈的狀態(tài).
    • 隱馬爾可夫模型有三個(gè)基本問題,即概率計(jì)算問題,學(xué)習(xí)問題,預(yù)測(cè)問題.
    • 概率計(jì)算問題:給定模型和觀測(cè)序列,計(jì)算在模型λ下觀測(cè)序列O出現(xiàn)的概率P(O|λ).
  • 直接計(jì)算法:最直接的方法是列舉所有可能長(zhǎng)度為T的狀態(tài)序列,求各個(gè)狀態(tài)序列I與觀測(cè)序列O的聯(lián)合概率,但計(jì)算量太大,實(shí)際操作不可行.
  • 前向算法:定義到時(shí)刻t部分觀測(cè)序列為o1~ot且狀態(tài)為qi的概率為前向概率,記作.初始化前向概率,遞推,對(duì)t=1~T-1,,得到.減少計(jì)算量的原因在于每一次計(jì)算直接引用前一個(gè)時(shí)刻的計(jì)算結(jié)果,避免重復(fù)計(jì)算.
  • 后向算法:定義在時(shí)刻t狀態(tài)為qi的條件下,從t+1到T的部分觀測(cè)序列為oi+1~oT的概率為后向概率,記作.初始化后向概率,遞推,對(duì)t=T-1~1,,得到.

    • 學(xué)習(xí)算法:已知觀測(cè)序列,估計(jì)模型的參數(shù),使得在該模型下觀測(cè)序列概率P(O|λ)最大.根據(jù)訓(xùn)練數(shù)據(jù)是否包括觀察序列對(duì)應(yīng)的狀態(tài)序列分別由監(jiān)督學(xué)習(xí)與非監(jiān)督學(xué)習(xí)實(shí)現(xiàn).

  • 監(jiān)督學(xué)習(xí):估計(jì)轉(zhuǎn)移概率和觀測(cè)概率.初始狀態(tài)概率πi的估計(jì)為S個(gè)樣本中初始狀態(tài)為qi的頻率.
  • 非監(jiān)督學(xué)習(xí)(Baum-Welch算法):將觀測(cè)序列數(shù)據(jù)看作觀測(cè)數(shù)據(jù)O,狀態(tài)序列數(shù)據(jù)看作不可觀測(cè)的隱數(shù)據(jù)I.首先確定完全數(shù)據(jù)的對(duì)數(shù)似然函數(shù).求Q函數(shù),用拉格朗日乘子法極大化Q函數(shù)求模型參數(shù),,.

    • 預(yù)測(cè)問題:也稱為解碼問題.已知模型和觀測(cè)序列,求對(duì)給定觀測(cè)序列條件概率P(I|O)最大的狀態(tài)序列.

  • 近似算法:?在每個(gè)時(shí)刻t選擇在該時(shí)刻最有可能出現(xiàn)的狀態(tài)it*,從而得到一個(gè)狀態(tài)序列作為預(yù)測(cè)的結(jié)果.優(yōu)點(diǎn)是計(jì)算簡(jiǎn)單,缺點(diǎn)是不能保證狀態(tài)序列整體是最有可能的狀態(tài)序列.

  • 維特比算法:用動(dòng)態(tài)規(guī)劃求概率最大路徑,這一條路徑對(duì)應(yīng)著一個(gè)狀態(tài)序列.從t=1開始,遞推地計(jì)算在時(shí)刻t狀態(tài)為i的各條部分路徑的最大概率,直至得到時(shí)刻t=T狀態(tài)為i的各條路徑的最大概率.時(shí)刻t=T的最大概率即為最優(yōu)路徑的概率P*,最優(yōu)路徑的終結(jié)點(diǎn)it*也同時(shí)得到,之后從終結(jié)點(diǎn)開始由后向前逐步求得結(jié)點(diǎn),得到最優(yōu)路徑.
  • 回到頂部

    統(tǒng)計(jì)學(xué)習(xí)方法總結(jié)

    • ?

    ?

    -------------------------------------------------?以下內(nèi)容并非出自《統(tǒng)計(jì)學(xué)習(xí)方法》-------------------------------------------------

    ?

    回到頂部

    神經(jīng)網(wǎng)絡(luò)

    • 神經(jīng)元(感知器)接收到來自n個(gè)其他神經(jīng)元傳遞過來的輸入信號(hào),這些輸入信號(hào)通過帶權(quán)重的連接進(jìn)行傳遞,神經(jīng)元將接收到的總輸入值與神經(jīng)元的閾值進(jìn)行比較,然后通過激活函數(shù)處理以產(chǎn)生神經(jīng)元的輸出.把許多個(gè)這樣的神經(jīng)元按一定的層次結(jié)構(gòu)連接起來就得到了神經(jīng)網(wǎng)絡(luò).一般使用反向傳播(BP)算法來進(jìn)行訓(xùn)練.
    • 反向傳播(BP)算法:
  • 前向傳播:將訓(xùn)練集數(shù)據(jù)輸入,經(jīng)過隱藏層,到達(dá)輸出層并輸出結(jié)果.
  • 計(jì)算估計(jì)值與實(shí)際值之間的誤差,并將該誤差從輸出層向輸入層反向傳播.
  • 在反向傳播的過程中,根據(jù)誤差使用梯度下降鏈?zhǔn)椒▌t調(diào)整各種參數(shù)的值.
  • 不斷迭代直至收斂.
    • 深度神經(jīng)網(wǎng)絡(luò)(DNN):可以理解為有很多隱藏層的神經(jīng)網(wǎng)絡(luò).DNN內(nèi)部分為輸入層(第一層),隱藏層,輸出層(最后一層).層與層之間是全連接的.
    • 卷積神經(jīng)網(wǎng)絡(luò)(CNN):一般用于圖像識(shí)別.通過卷積核感受野的乘積形成卷積后的輸出.在每一個(gè)卷積層之后,通常會(huì)使用一個(gè)ReLU(修正線性單元)函數(shù)來把所有的負(fù)激活都變?yōu)榱?在幾個(gè)卷積層之后也許會(huì)用一個(gè)池化層(采樣層)來輸出過濾器卷積計(jì)算的每個(gè)子區(qū)域中的最大數(shù)字或平均值.
    • 循環(huán)神經(jīng)網(wǎng)絡(luò)(RNN):如果訓(xùn)練樣本輸入是連續(xù)序列,則DNN和CNN不好解決.RNN假設(shè)樣本是基于序列的,對(duì)應(yīng)的輸入是樣本序列中的x(t),而模型在序列索引號(hào)t位置的隱藏狀態(tài)h(t)由x(t)和h(t-1)共同決定.在任意序列索引號(hào)t有對(duì)應(yīng)的模型預(yù)測(cè)輸出o(t).也就是說,RNN是包含循環(huán)的網(wǎng)絡(luò),允許信息的持久化.

      ?

    • 長(zhǎng)短期記憶網(wǎng)絡(luò)(LSTM):一種特殊的RNN,可以學(xué)習(xí)長(zhǎng)期依賴信息.
    回到頂部

    K-Means

    • K-Means是無監(jiān)督聚類算法.思想是對(duì)于給定的樣本集,按照樣本之間的距離大小將樣本集劃分為K個(gè)簇,讓簇內(nèi)的點(diǎn)盡量緊密地連在一起,而讓簇間的距離盡量的大.
    • 傳統(tǒng)算法:
  • 用先驗(yàn)知識(shí)或交叉驗(yàn)證選擇一個(gè)合適的k值.
  • 隨機(jī)選擇k個(gè)樣本作為初始的質(zhì)心.注意初始化質(zhì)心的選擇對(duì)最后的聚類結(jié)果和運(yùn)行時(shí)間都有很大的影響.
  • 計(jì)算每個(gè)樣本點(diǎn)和各個(gè)質(zhì)心的距離,將樣本點(diǎn)標(biāo)記為距離最小的質(zhì)心所對(duì)應(yīng)的簇.
  • 重新計(jì)算每個(gè)的質(zhì)心,取該簇中每個(gè)點(diǎn)位置的平均值.
  • 重復(fù)2,3,4步直到k個(gè)質(zhì)心都沒有發(fā)生變化為止.
    • K-Means++:用于優(yōu)化隨機(jī)初始化質(zhì)心的方法
  • 從輸入樣本點(diǎn)中隨機(jī)選擇一個(gè)點(diǎn)作為第一個(gè)質(zhì)心.
  • 計(jì)算每一個(gè)樣本點(diǎn)到已選擇的質(zhì)心中最近質(zhì)心的距離D(x).
  • 選擇一個(gè)新的樣本點(diǎn)作為新的質(zhì)心,選擇原則是D(x)越大的點(diǎn)被選中的概率越大.
  • 重復(fù)2和3直到選出k個(gè)質(zhì)心.
    • Elkan K-Means:利用兩邊之和大于第三邊以及兩邊之差小于第三邊來減少距離的計(jì)算.不適用于特征稀疏的情況.
    • Mini?Batch?K-Means:樣本量很大時(shí),只用其中的一部分來做傳統(tǒng)的K-Means.一般多用幾次該算法,從不同的隨即采樣中選擇最優(yōu)的聚類簇.
    回到頂部

    Bagging

    • Bagging的弱學(xué)習(xí)器之間沒有boosting那樣的聯(lián)系,它的特點(diǎn)在于"隨機(jī)采樣",也就是有放回采樣.因此泛化能力很強(qiáng).一般會(huì)隨機(jī)采集和訓(xùn)練集樣本數(shù)一樣個(gè)數(shù)的樣本.假設(shè)有m個(gè)樣本,且采集m次,當(dāng)m趨向無窮大時(shí)不被采集到的數(shù)據(jù)占1/e,也就是36.8%,稱為袋外數(shù)據(jù),可以用來檢測(cè)模型的泛化能力.Bagging對(duì)于弱學(xué)習(xí)器沒有限制,一般采用決策樹和神經(jīng)網(wǎng)絡(luò).
    • 算法:
  • 對(duì)于t=1~T,對(duì)訓(xùn)練數(shù)據(jù)進(jìn)行第t次隨機(jī)采樣,共采集m次,得到包含m個(gè)樣本的采樣集Dm.
  • 用采樣集Dm訓(xùn)練第m個(gè)弱學(xué)習(xí)器Gm(x)
  • 如果是分類,則用簡(jiǎn)單投票法.如果是回歸,則取T個(gè)弱學(xué)習(xí)器結(jié)果的平均值.
    • 隨機(jī)森林:使用CART決策樹作為弱學(xué)習(xí)器,然后每次不從n個(gè)樣本特征中選擇最優(yōu)特征,而是從隨機(jī)選擇的nsub個(gè)樣本特征中來選擇.一般用交叉驗(yàn)證來獲取合適的nsub值.
    回到頂部

    Apriori

    • Apriori是常用的挖掘出數(shù)據(jù)關(guān)聯(lián)規(guī)則的算法,用于找出數(shù)據(jù)值中頻繁出現(xiàn)的數(shù)據(jù)集合.一般使用支持度或者支持度與置信度的組合作為評(píng)估標(biāo)準(zhǔn).
    • 支持度:幾個(gè)關(guān)聯(lián)的數(shù)據(jù)在數(shù)據(jù)集中出現(xiàn)的次數(shù)占總數(shù)據(jù)集的比重
    • 置信度:一個(gè)數(shù)據(jù)出現(xiàn)后.另一個(gè)數(shù)據(jù)出現(xiàn)的概率
    • Apriori算法的目標(biāo)是找到最大的K項(xiàng)頻繁集.假設(shè)使用支持度來作為評(píng)估標(biāo)準(zhǔn),首先搜索出候選1項(xiàng)集及對(duì)應(yīng)的支持度,剪枝去掉低于支持度的1項(xiàng)集,得到頻繁1項(xiàng)集.然后對(duì)剩下的頻繁1項(xiàng)集進(jìn)行連接,得到候選的頻繁2項(xiàng)集......以此類推,不斷迭代,直到無法找到頻繁k+1項(xiàng)集為止,對(duì)應(yīng)的頻繁k項(xiàng)集的集合即為輸出結(jié)果.
    回到頂部

    降維方法

    • 主成分分析(PCA):降維,不斷選擇與已有坐標(biāo)軸正交且方差最大的坐標(biāo)軸.
    • 奇異值分解(SVD):矩陣分解,降維,推薦系統(tǒng).??
    • 線性判別分析(LDA)
    回到頂部

    引用

  • 如何理解神經(jīng)網(wǎng)絡(luò)里面的反向傳播算法? - 陳唯源的回答 - 知乎
  • 劉建平Pinard-博客園
  • 轉(zhuǎn)載于:https://www.cnblogs.com/ciao/articles/10888593.html

    總結(jié)

    以上是生活随笔為你收集整理的《统计学习方法》(李航)读书笔记(转)的全部?jī)?nèi)容,希望文章能夠幫你解決所遇到的問題。

    如果覺得生活随笔網(wǎng)站內(nèi)容還不錯(cuò),歡迎將生活随笔推薦給好友。

    中文字幕乱码亚洲精品一区 | 久久综合狠狠狠色97 | 日本精品一区二区三区在线播放视频 | 日韩久久久久久久久久 | 午夜色性片 | 337p日本大胆噜噜噜噜 | 久久人人爽人人片av | 最近的中文字幕大全免费版 | 欧美日韩在线网站 | 999久久国产精品免费观看网站 | 99久热精品 | 日韩激情片在线观看 | 日日婷婷夜日日天干 | 亚洲激精日韩激精欧美精品 | 国产 亚洲 欧美 在线 | 大片网站久久 | 久久国产免费视频 | 日韩欧美视频免费在线观看 | 91看片在线播放 | 久久夜色精品国产欧美一区麻豆 | 午夜丰满寂寞少妇精品 | 免费在线观看av的网站 | 国产精品成人一区二区三区吃奶 | 国产手机视频在线播放 | 伊人狠狠色丁香婷婷综合 | 九九久久久久久久久激情 | 久久久久久亚洲精品 | 欧美 亚洲 另类 激情 另类 | 色婷婷在线播放 | 日日婷婷夜日日天干 | 精品一区在线 | 国产精品热视频 | 欧美日韩一区二区三区视频 | 99国产精品久久久久久久久久 | 国产在线不卡精品 | a极黄色片| 久草在线这里只有精品 | 国产成人久久av | 久久兔费看a级 | 精品国产一区二区久久 | 婷婷成人亚洲综合国产xv88 | 夜夜操天天摸 | 日韩免费播放 | 欧美成人播放 | 亚洲乱码一区 | 日韩久久在线 | 久久精品一区二区 | 91最新在线观看 | 欧美性生交大片免网 | 国产精品视频久久久 | 久草视频在线资源站 | 国产九九在线 | 一区三区视频 | 免费看黄的 | 91av视频| 亚洲一级电影 | 视频三区在线 | 欧美色综合天天久久综合精品 | 中文字幕在线视频一区二区 | 又湿又紧又大又爽a视频国产 | 一区二精品 | 中文字幕中文字幕在线中文字幕三区 | a国产精品| 亚洲成人黄色在线观看 | 九九免费精品视频 | 免费不卡中文字幕视频 | 国产精品第一页在线观看 | 最近中文字幕免费视频 | 狠狠狠狠狠干 | www.亚洲激情.com| 国产精品第一页在线 | 亚洲国产伊人 | 亚洲精品九九 | 久久精品三 | 免费在线观看中文字幕 | 92国产精品久久久久首页 | 99热最新精品 | 麻豆视频免费入口 | 色综合婷婷久久 | 午夜国产一区二区三区四区 | 精品主播网红福利资源观看 | 91麻豆精品一区二区三区 | 国产成人三级在线播放 | 午夜精品福利一区二区 | 久久久精品二区 | 日韩免费成人 | 久久久久免费视频 | 国产亚洲精品美女久久 | 国产一区二区精品91 | 中文成人字幕 | 国产精品久久99精品毛片三a | 日韩欧美一区二区在线观看 | 国产精品欧美久久久久天天影视 | 黄色软件视频网站 | 免费三级a| 国产中文字幕第一页 | av片无限看| 操高跟美女| 婷婷国产v亚洲v欧美久久 | 久久久精品一区二区 | 中文字幕 成人 | 黄色成人在线 | 一区二区三区在线免费播放 | 亚洲电影一级黄 | 97精品国自产拍在线观看 | 中文字幕在线观看不卡 | 中文高清av| 欧美网站黄色 | 性色视频在线 | 91精品办公室少妇高潮对白 | 国产色女| 天天色天天爱天天射综合 | 婷婷综合五月 | www.夜色321.com | 成人免费一区二区三区在线观看 | 久久精品这里热有精品 | 日韩精品欧美专区 | 国产在线免费观看 | 超碰在线观看97 | 日韩黄色免费电影 | 天天射日 | 精品久久久久久久久久久院品网 | a久久久久久 | 欧美男同网站 | 久久96国产精品久久99软件 | 亚洲第一区在线播放 | 国产精品一区二区久久精品爱涩 | 免费特级黄毛片 | 国产精品自产拍 | 国产精品毛片一区视频 | 久久久久久黄色 | 国偷自产视频一区二区久 | 日本中文字幕网站 | av福利在线免费观看 | 免费看三级 | 麻豆国产精品va在线观看不卡 | 美女视频a美女大全免费下载蜜臀 | 久久再线视频 | 在线观看中文字幕第一页 | 国产黄大片在线观看 | 91最新视频在线观看 | 波多野结衣视频一区 | 免费人做人爱www的视 | 天天做综合网 | 天天躁天天躁天天躁婷 | 999免费视频 | 粉嫩一区二区三区粉嫩91 | 在线播放国产一区二区三区 | 福利视频第一页 | 色com网| 天天插综合| 在线播放精品一区二区三区 | 激情电影影院 | 久久久999免费视频 日韩网站在线 | 日韩中文字幕在线不卡 | 天天综合久久综合 | 六月天综合网 | 国内揄拍国产精品 | 中文字幕乱视频 | 天堂av色婷婷一区二区三区 | 国产福利av | 久久久久成人精品 | 天天爽天天碰狠狠添 | 成年人在线免费看视频 | 欧美精品中文在线免费观看 | 日韩高清成人在线 | 高清视频一区二区三区 | 欧美少妇18p| 五月婷婷视频在线观看 | 国产黄色精品网站 | 日日色综合 | 中文字幕在线播放日韩 | 亚州免费视频 | 国产黄网站在线观看 | 国内小视频| 一级欧美日韩 | 国产午夜精品一区二区三区四区 | 久一久久 | 欧美日韩国产欧美 | www亚洲视频 | 日韩区视频 | 国产免费视频一区二区裸体 | av电影在线不卡 | 色偷偷88欧美精品久久久 | 久久亚洲日本 | 免费一级片视频 | 国产99久久| 欧美少妇影院 | 精品免费观看视频 | www看片网站 | 人人爽夜夜爽 | 五月激情婷婷丁香 | 日韩av一区二区在线影视 | 国产福利91精品张津瑜 | 日韩网站一区二区 | 涩涩网站在线播放 | 人九九精品 | 久久久国产精品成人免费 | 日韩精品久久久久久中文字幕8 | 91在线精品一区二区 | 九九热免费在线观看 | 久久99国产精品 | 日韩在线观看视频在线 | 国产精品18久久久久久不卡孕妇 | 日日射av | 97视频入口免费观看 | 久久久久国产精品一区二区 | 91精品在线免费观看视频 | 国产中文字幕在线看 | 久久人人添人人爽添人人88v | 欧美亚洲国产一卡 | 精品美女久久久久 | 97韩国电影 | 亚洲精品乱码白浆高清久久久久久 | 日韩欧美视频 | 国产偷v国产偷∨精品视频 在线草 | 国产福利午夜 | 在线导航福利 | 六月婷婷色| 国产高清在线永久 | 五月婷婷开心 | 韩日三级在线 | 91亚洲精品久久久蜜桃 | 91av短视频 | 99精品在线免费 | 国产亚洲欧美在线视频 | 天天做天天爱夜夜爽 | 午夜精品久久久 | av电影免费看| 免费看成人片 | 一级免费av | 亚洲黄色av网址 | 免费成人av | 人人澡超碰碰97碰碰碰软件 | 日韩精品一区二区三区免费观看视频 | 精品综合久久久 | 黄色小说视频网站 | 91精品夜夜 | 国产一区在线免费观看 | avav99 | 国产91av视频在线观看 | 亚洲成年片| 久草网在线 | 日三级在线 | 黄色片网站av | 六月丁香婷婷久久 | 日韩av在线免费看 | 伊人官网| 五月婷在线播放 | 欧美精品久久久久久久亚洲调教 | 99草在线视频 | 人人干人人做 | 992tv成人免费看片 | 欧美天天综合 | 国产精品久久99 | 91理论电影| 天天色草| 欧美成人xxx| 婷婷久久久 | 国产淫a | 丁香5月婷婷 | 久草国产视频 | 亚洲视频电影在线 | 久久xxxx| 久久av中文字幕片 | 日韩欧美视频在线播放 | 男女啪啪网站 | 国产精品网红福利 | 国产一级视频在线观看 | 97av在线视频 | 江苏妇搡bbbb搡bbbb | 久久avav | 久久综合狠狠综合久久激情 | 97在线视频网站 | 中文字幕一区二区三区四区在线视频 | 欧美老人xxxx18 | 麻豆一精品传二传媒短视频 | 高潮久久久久久久久 | 免费久久精品视频 | 在线电影日韩 | 国产在线视频不卡 | 麻花豆传媒mv在线观看网站 | 在线国产高清 | 五月天狠狠操 | 免费高清在线一区 | 男女视频91| 久久超| 久久国产亚洲 | 午夜精品一区二区国产 | 亚洲va欧美va| 在线观看久草 | 字幕网在线观看 | 国产高清成人av | 中文字幕乱码亚洲精品一区 | 激情丁香5月| 免费欧美高清视频 | 成av人电影 | 国产一级二级在线播放 | 亚洲国产视频网站 | 中文永久字幕 | 国产精品久久久久久69 | 999久久国产| 精品国产一区二区三区噜噜噜 | 日韩在线观看中文 | 久久国产免费看 | 久久国产精品99国产精 | 色婷婷婷 | 天天干夜夜爱 | 国产在线精品国自产拍影院 | 91成人看片| 成人在线视频网 | 久久久久久草 | 91在线永久 | 成人网在线免费视频 | 99久久精品国产观看 | 欧美性大战| 狠狠狠综合 | 亚洲欧美综合精品久久成人 | 亚洲国内精品在线 | 亚洲片在线观看 | 国产三级av在线 | 亚洲精品在线视频 | 美女视频黄免费的久久 | 中文字幕资源网 国产 | 播五月综合 | 亚洲综合欧美日韩狠狠色 | 日韩午夜视频在线观看 | 成人免费看片网址 | 天天搞夜夜骑 | 国产一区二区视频在线播放 | 99久久国产免费,99久久国产免费大片 | 国产999久久久 | 欧美日韩精品免费观看 | 亚洲三级在线免费观看 | 天天躁日日躁狠狠 | 在线国产精品一区 | 亚洲精品视频中文字幕 | 香蕉影院在线播放 | 又黄又爽又刺激视频 | 欧美九九视频 | 国产亚洲精品xxoo | 国产一区二区三区视频在线 | 麻豆国产网站 | 亚洲区精品视频 | 久久久久久久久久久久亚洲 | 国产九九九九九 | 中文在线字幕观看电影 | 亚洲精品一区二区三区在线观看 | 日韩在线观看你懂得 | 久久黄色网 | 人人藻人人澡人人爽 | 国内精品亚洲 | 欧美在线视频一区二区 | 午夜电影一区 | 成人污视频在线观看 | 欧美在线观看视频一区二区 | 成人久久18免费网站图片 | 日韩精品免费 | 久草视频免费 | 永久av免费在线观看 | 91麻豆精品国产自产在线 | 国产精品久久久久免费a∨ 欧美一级性生活片 | 久久国产午夜精品理论片最新版本 | 日本久久久久久 | 香蕉一区 | 欧美专区日韩专区 | 日韩手机在线 | 久久综合国产伦精品免费 | 国产1级毛片| 亚洲视频在线观看 | 亚洲国产午夜 | av在线等| 国产91丝袜在线播放动漫 | 九色在线视频 | 国产精品久久久久久久久久久久午夜 | 国产精品久久久久久久久蜜臀 | 香蕉成人在线视频 | 日韩高清不卡在线 | 四虎成人精品永久免费av | 久久影院精品 | 色多视频在线观看 | 成人免费网站在线观看 | 在线观看第一页 | 91麻豆看国产在线紧急地址 | 成年人免费看片 | 一区二区视频在线观看免费 | 欧美精品你懂的 | 国产免费资源 | 欧美日韩一区二区在线 | 欧美性极品xxxx做受 | 久久免费高清 | 高清免费av在线 | 91福利免费 | 成年人网站免费在线观看 | 99av国产精品欲麻豆 | 久久久亚洲国产精品麻豆综合天堂 | 91在线视频在线观看 | 国产免费观看久久黄 | www久久国产 | av在线激情 | 免费在线日韩 | a v在线观看 | 久久蜜臀一区二区三区av | 综合网五月天 | 日韩二区三区在线 | 国产午夜精品视频 | 91久久偷偷做嫩草影院 | 欧美日本中文字幕 | 国产一区免费在线观看 | av综合av | 日韩欧美一区二区三区黑寡妇 | 日本91在线| 99精品国产福利在线观看免费 | 国内精品在线看 | 国产亲近乱来精品 | 亚洲 欧洲 国产 日本 综合 | 久久在线免费视频 | 激情五月播播久久久精品 | 亚洲精品国久久99热 | 五月综合网 | 欧美久久久 | 欧美日本不卡高清 | 久久国产精品小视频 | 成年人视频在线免费播放 | 日韩,精品电影 | 亚洲精品资源在线 | 日韩av区| 国产精品网红直播 | 亚洲国产一区在线观看 | 亚洲成av人片在线观看 | 国产精品手机播放 | 欧美国产亚洲精品久久久8v | 天天爱天天舔 | 99r在线观看 | 婷婷色网视频在线播放 | 美女视频a美女大全免费下载蜜臀 | 欧美日韩在线播放一区 | 天天操天天爱天天干 | 三级免费黄色 | 久草在线视频首页 | 在线观看色视频 | 91久久国产自产拍夜夜嗨 | a视频免费看 | 激情电影影院 | 国产精品麻豆91 | 最近最新中文字幕 | 日韩中文字幕亚洲一区二区va在线 | 91麻豆操| 日韩a在线 | 成人h在线 | 五月色综合 | av丝袜在线 | av在线8 | 欧美不卡视频在线 | 国产人成免费视频 | 亚洲综合丁香 | www91在线观看 | 一区二区精品国产 | 国产精品1区2区 | 欧美黄色特级片 | 美女免费网视频 | 人人爽人人看 | 蜜臀av一区| 99免费国产| 亚洲欧美国产精品va在线观看 | 天天搞夜夜骑 | 国产精品免费观看久久 | 在线导航av| 国产高清av免费在线观看 | 91麻豆精品91久久久久同性 | 国产精品久久久影视 | 在线小视频你懂得 | 国产精品一级在线 | 免费观看成人网 | 最近高清中文字幕在线国语5 | 天天射天天添 | 欧美视频不卡 | 久久国产精品成人免费浪潮 | 国产午夜精品在线 | 97国产大学生情侣酒店的特点 | 精品久久久久久亚洲综合网站 | 成人免费在线观看av | 国产黑丝袜在线 | 国产精品美女999 | 91porny九色91啦中文 | 日韩在线视频二区 | 亚洲国产精品电影在线观看 | 少妇按摩av | 日韩欧美电影在线 | 免费在线观看日韩视频 | 97在线免费视频观看 | 婷婷丁香综合 | 黄色高清视频在线观看 | 免费在线观看一区 | 亚洲激情视频在线观看 | 日韩一区二区三区视频在线 | 天天插日日插 | 日韩av影视在线观看 | 精品一二| 久久不卡日韩美女 | 欧美在一区 | 亚洲综合视频网 | 国产精品va在线观看入 | 在线婷婷| 欧美久久久久久久久中文字幕 | 久久麻豆精品 | 91av片| www.午夜视频 | 激情五月婷婷激情 | 国产99中文字幕 | 在线免费观看视频你懂的 | 久久久久福利视频 | 天天se天天cao天天干 | 狠狠操狠狠干天天操 | 99精品99 | 久久视频国产精品免费视频在线 | 欧美经典久久 | 亚洲精品美女视频 | 亚洲专区 国产精品 | 免费视频你懂的 | 激情综合电影网 | 久久九九精品久久 | 国产精品视频在线看 | 久久免费视频这里只有精品 | 一级欧美日韩 | 久久精品亚洲一区二区三区观看模式 | 娇妻呻吟一区二区三区 | 人人澡人人干 | 中文字幕在线观看三区 | 国产在线污 | 天天干,夜夜爽 | 国产一区二区精 | 日韩精品一区二区免费 | 999色视频 | 91大神精品视频在线观看 | 欧洲视频一区 | 一区二区三区高清不卡 | 久久久福利 | 成人av一区二区兰花在线播放 | 黄在线免费看 | 国产最新在线 | 激情综合五月网 | 99在线精品视频 | 久久成人资源 | 精品国产三级a∨在线欧美 免费一级片在线观看 | 国产99久久精品一区二区300 | 欧美一区二区在线免费看 | 成人中文字幕在线观看 | 欧美在线99 | 亚洲成人资源网 | 九九精品久久 | 亚洲在线看 | 黄色精品一区二区 | 亚洲视频电影在线 | 国产96在线视频 | 久久xx视频 | 又黄又刺激的视频 | 最近日本中文字幕a | 亚洲做受高潮欧美裸体 | 国产视频不卡一区 | 婷婷丁香激情五月 | av在线播放一区二区三区 | 国产黄色精品在线 | 国产伦精品一区二区三区四区视频 | 亚洲免费色| 日韩免费在线看 | 日韩免费电影网 | 激情久久婷婷 | 日韩欧美在线视频一区二区 | 超碰在线公开免费 | 一区二区三区四区免费视频 | 在线观看福利网站 | 18久久久| 狠狠狠色丁香综合久久天下网 | 日本一区二区三区视频在线播放 | 中文字幕在线免费观看视频 | 九九在线国产视频 | 91av在线免费看 | 91精品国产91久久久久 | 97精品视频在线播放 | 综合网伊人 | 丁香激情综合久久伊人久久 | 日韩视频精品在线 | 中文字幕一区在线 | 天天操天天爽天天干 | 久久久久久久久久久网 | 亚洲综合色视频在线观看 | 不卡的av在线 | av在线小说 | 日韩免费一级电影 | 日韩免费视频在线观看 | 免费在线国产 | 波多野结衣在线观看一区 | 婷婷丁香在线观看 | 久久精品一区八戒影视 | 亚洲黄色在线播放 | 一区二区三区四区五区在线 | 亚洲精品久 | 天天插天天干 | 中文字幕 国产精品 | 亚洲一区欧美激情 | 插婷婷 | 中文在线字幕免 | 国产精品久久久一区二区 | 一区二区视频欧美 | 国产不卡片 | 亚洲国产精品久久久久 | 狠狠插狠狠干 | 日韩成人免费电影 | 亚洲成av人片在线观看 | 国产精品一区在线观看你懂的 | 国产中文字幕在线免费观看 | 日韩av一卡二卡三卡 | 日日日爽爽爽 | 国产一级二级三级视频 | 国产91国语对白在线 | 国产成人一区二区三区影院在线 | 婷婷久月| 伊人狠狠色丁香婷婷综合 | 美女黄色网在线播放 | 久久这里只有精品久久 | 麻豆国产视频下载 | 亚洲国产午夜 | 欧美极度另类性三渗透 | 国产欧美精品一区二区三区四区 | 99久久精品久久久久久清纯 | 五月天久久激情 | 在线综合 亚洲 欧美在线视频 | 在线精品视频在线观看高清 | 高清一区二区三区 | 成人小视频在线观看免费 | 中文字幕免 | 亚洲国产精品一区二区久久,亚洲午夜 | 亚洲 欧美 综合 在线 精品 | 91视频大全| 97精品视频在线 | 久久久影院官网 | 黄色国产在线观看 | 久久亚洲成人网 | 国产美女视频 | 午夜 久久 tv | 丁香在线观看完整电影视频 | 日韩视频免费 | 天天干天天色2020 | 久久精品久久99精品久久 | 国产精品第二页 | 日韩视频免费观看高清 | 成人黄在线 | 国产精品久久精品 | 91看片成人 | 午夜三级在线 | 欧美日韩一区二区久久 | 国产伦理一区二区三区 | 手机av永久免费 | 999视频在线观看 | 国产自在线 | 91免费国产在线观看 | 日韩动态视频 | 亚洲免费一级 | 亚洲成av人影片在线观看 | 日韩精品免费一线在线观看 | 久久综合毛片 | www.天天干 | av在线中文 | 亚洲精品色婷婷 | 干天天| 成人av电影在线播放 | 四虎在线观看视频 | 91av99| 日本精品中文字幕在线观看 | 亚洲精品一区二区久 | 夜夜操夜夜干 | 免费在线观看不卡av | 一区二区三区播放 | 欧美成人在线网站 | 91在线入口 | 色综合久久中文字幕综合网 | 日日干综合 | 天堂网一区二区 | 99久久日韩精品视频免费在线观看 | 久草在线 | 久久久久久国产精品亚洲78 | 国产精品网在线观看 | 久久久久久黄 | 国产精品一区二区久久精品爱微奶 | 国产成人一二片 | 国产h片在线观看 | 五月婷婷综合在线 | 91.精品高清在线观看 | 在线观看视频三级 | 天天色天天操综合网 | 亚洲资源 | 91网在线看| 国产一区免费在线观看 | 中文字幕一区二区三区在线视频 | 欧美日韩亚洲国产一区 | 精品久久久成人 | 日韩av影视在线 | 亚洲综合在线五月天 | 精品视频9999 | 夜夜骑日日 | 成人av在线影视 | www.久久免费 | 欧美一级特黄aaaaaa大片在线观看 | 亚洲高清视频一区二区三区 | 黄色三级网站 | 国产精品福利一区 | 91视频xxxx | 久久国产精品99久久久久久老狼 | 狠狠躁天天躁 | 91成人精品一区在线播放 | 国内精品久久久久影院日本资源 | 国产精品视频全国免费观看 | 国产高清av在线播放 | 视频二区在线视频 | 天天天天爱天天躁 | 国产精品美女久久久免费 | 国产精品成人一区二区三区 | ww亚洲ww亚在线观看 | 亚洲第一区在线播放 | 欧美一级小视频 | 婷婷激情综合 | 亚洲视频h | 亚洲天堂网视频在线观看 | 国产视频999 | 成年人免费看的视频 | 午夜精品久久一牛影视 | 99精品视频免费在线观看 | 久久综合久久88 | 日韩手机在线 | 一本一道久久a久久综合蜜桃 | 国产99久久久国产精品免费看 | 天天躁日日躁狠狠躁av中文 | 精品一二三区视频 | 中文字幕色在线视频 | 亚洲综合成人婷婷小说 | 91视频啊啊啊 | 国产99re| 成人全视频免费观看在线看 | 日本精品视频一区 | 玖玖视频网 | 韩国av免费看 | 色妞色视频一区二区三区四区 | 日韩精品在线看 | 日韩三级视频在线看 | 国产手机视频在线 | 国产黄在线 | 成人网在线免费视频 | jizz999| 超碰久热| 在线影院中文字幕 | 国产男女爽爽爽免费视频 | 夜夜操夜夜干 | 伊人丁香 | 久久国产精品久久精品 | 国产精品久久久久久久久久久杏吧 | 成人av在线观 | 色综合咪咪久久网 | 精品亚洲男同gayvideo网站 | 精品国产一区二区三区久久久蜜月 | 鲁一鲁影院 | 成人黄色电影在线 | 视频一区二区精品 | 最新免费av在线 | 在线观看91 | 在线免费性生活片 | 国产综合视频在线观看 | 天天草综合网 | 成片免费观看视频大全 | 成人免费在线网 | 中文字幕国产精品 | 国内精品久久久久久久久久久 | 99色在线观看视频 | 日韩欧美国产激情在线播放 | 毛片a级片 | 国产色影院 | 亚洲成免费| 美女精品久久久 | 久久免费精品一区二区三区 | 四虎免费av| 精品亚洲国产视频 | 久久久久在线视频 | 九九九热精品免费视频观看 | 日韩精品一区电影 | 99久久99久久精品免费 | 日本不卡一区二区 | 成人av免费网站 | 韩日精品视频 | 日韩精品高清不卡 | 在线视频观看成人 | 成人免费视频播放 | 久久精品导航 | www.亚洲精品视频 | 日本中文字幕在线一区 | 中文字幕 国产视频 | 最新在线你懂的 | 国产亚洲亚洲 | 精品亚洲二区 | 久久免费观看视频 | 91麻豆网 | 一级性生活片 | 青春草视频 | 久保带人| 日韩小视频网站 | 69人人| 国产精品乱码一区二区视频 | 免费av视屏 | av在线网站大全 | 日日摸日日 | 日产中文字幕 | 久久艹99| 久久精品国产免费观看 | 婷婷六月天综合 | www视频免费在线观看 | 久久99视频免费观看 | 色综合久久88色综合天天免费 | 亚洲天堂网视频在线观看 | 俺要去色综合狠狠 | 日韩精品专区 | 一区二区三区在线观看中文字幕 | 五月婷婷香蕉 | 欧美精品色 | 992tv人人网tv亚洲精品 | 波多野结衣一区二区三区中文字幕 | a在线免费 | 伊人五月综合 | 91资源在线观看 | av手机版| 国产精品精品视频 | 国产中文字幕视频在线观看 | 久久久午夜电影 | 成人黄在线观看 | 色综合天天色综合 | 国产精品久久精品 | 在线va网站 | www.色婷婷 | 国产精品小视频网站 | 国产一区二区手机在线观看 | 天天草视频 | 三级黄色在线 | 久久乱码卡一卡2卡三卡四 五月婷婷久 | 激情五月婷婷综合网 | 日韩二区三区在线 | 中文字幕丝袜 | 天天操天天干天天摸 | 国产91成人 | 欧美亚洲国产一卡 | 美女久久久 | 国产精品不卡在线 | 97网站| 日韩免费av片 | 美女国产| 成人欧美在线 | 久久区二区 | 999成人网 | 欧美亚洲免费在线一区 | 免费日韩三级 | 五月天堂网 | 国产一区二区网址 | 免费亚洲精品 | 黄色av影视 | 中文字幕专区高清在线观看 | 天天综合亚洲 | 国产在线播放不卡 | 国产一级片不卡 | 久久中文网 | 久久狠狠亚洲综合 | 国产成人av网 | 人人插人人爱 | 日韩夜夜爽 | 天天曰夜夜爽 | 亚洲二区精品 | 国产69久久精品成人看 | 久久99精品热在线观看 | 制服丝袜亚洲 | 2020天天干夜夜爽 | 97电影在线看视频 | 日韩一级电影在线观看 | 97超在线视频 | 成人综合免费 | www日韩在线 | 日韩中文字幕免费在线播放 | 夜夜骑日日 | 午夜精品久久久久久久99 | 欧美日韩一区二区三区免费视频 | 人人dvd | 97高清视频 | 人人讲 | 中文一区二区三区在线观看 | 97视频免费看 | av黄色影院 | 久久亚洲精品国产亚洲老地址 | 中文字幕在线播放视频 | 国产+日韩欧美 | 夜夜澡人模人人添人人看 | 五月婷婷亚洲 | 国产黑丝一区二区三区 | 亚洲国产天堂av | 九九九九免费视频 | 中文字幕a∨在线乱码免费看 | 日韩和的一区二在线 | 天天操天天添 | 91在线一区 | 国产 视频 高清 免费 | 黄色特级片 | 欧美一区在线观看视频 | 激情欧美在线观看 | 999久久久免费视频 午夜国产在线观看 | 天天干视频在线 | 国产精品视频最多的网站 | 国产流白浆高潮在线观看 | 欧美日韩一区二区在线 | 日本精品中文字幕 | 中文字幕在线视频网站 | 天天操人人要 | 亚洲伊人色 | 欧美精选一区二区三区 | 日日干激情五月 | 77国产精品| 色www永久免费| 免费成人av在线 | 国产亚洲精品综合一区91 | 国产一区二区在线播放视频 | 福利一区在线视频 | 天堂av高清| 日本中文在线播放 | 亚洲国产精品久久久久婷婷884 | 国内精品久久久精品电影院 | 久久久精品福利视频 | 久久国产精品电影 | 四虎在线观看精品视频 | 麻豆精品国产传媒 | 天天射色综合 | 热久在线| 911香蕉视频| 亚洲欧洲一级 | 色视频网站免费观看 | 黄色小说视频在线 | 韩日精品在线 | 欧美黄色免费 | 国产传媒中文字幕 | 亚洲精品午夜一区人人爽 | 精品亚洲欧美无人区乱码 | 国产精品成人av电影 | 亚洲精品中文在线 | 极品中文字幕 | 国产精品免费久久久久影院仙踪林 | 人人爽人人澡人人添人人人人 | 精品视频免费 | 亚洲欧美视频在线播放 | 国产精品黑丝在线观看 | 少妇啪啪av入口 | 国产高清区| 超碰在线人人爱 | 国产精品剧情 | 日本三级在线观看中文字 | 99精品美女| 九九热精 | 久久99久国产精品黄毛片入口 | 久久综合网色—综合色88 | 精品女同一区二区三区在线观看 | 国产精品91一区 | 欧美极品在线播放 | 亚洲小视频在线 | 亚洲第五色综合网 | 久久婷婷激情 | 欧美一区二视频在线免费观看 | 久99久精品 | 999成人免费视频 | 国产综合在线视频 | 日韩另类在线 | 欧美怡红院 | 亚洲电影在线看 | 中文字幕国产视频 | 99人久久精品视频最新地址 | 国产天天综合 | 色先锋av资源中文字幕 | 日本中文字幕在线看 | 免费色视频在线 | 中文字幕乱码电影 | 最新av网址在线观看 | 99视频在线 | 亚洲精品mv在线观看 | 香蕉视频一级 | 在线黄网站 | 欧美视频xxx | 天天色天天射天天干 | 99视频免费 | 久久精品aaa| 999久久国精品免费观看网站 | 五月开心网 | 综合激情久久 | 玖玖国产精品视频 | 在线观看视频一区二区三区 | 亚洲午夜精品一区二区三区电影院 | 亚洲视频观看 | 国产精品电影一区二区 | 精品国产自 |