日韩性视频-久久久蜜桃-www中文字幕-在线中文字幕av-亚洲欧美一区二区三区四区-撸久久-香蕉视频一区-久久无码精品丰满人妻-国产高潮av-激情福利社-日韩av网址大全-国产精品久久999-日本五十路在线-性欧美在线-久久99精品波多结衣一区-男女午夜免费视频-黑人极品ⅴideos精品欧美棵-人人妻人人澡人人爽精品欧美一区-日韩一区在线看-欧美a级在线免费观看

歡迎訪問 生活随笔!

生活随笔

當前位置: 首頁 > 人工智能 > 卷积神经网络 >内容正文

卷积神经网络

直白介绍卷积神经网络(CNN)

發布時間:2024/8/23 卷积神经网络 77 豆豆
生活随笔 收集整理的這篇文章主要介紹了 直白介绍卷积神经网络(CNN) 小編覺得挺不錯的,現在分享給大家,幫大家做個參考.

?什么是卷積神經網絡,它為何重要?

卷積神經網絡(也稱作?ConvNets?或?CNN)是神經網絡的一種,它在圖像識別和分類等領域已被證明非常有效。 卷積神經網絡除了為機器人和自動駕駛汽車的視覺助力之外,還可以成功識別人臉,物體和交通標志。

圖1

圖1所示,卷積神經網絡能夠識別圖片的場景并且提供相關標題(“足球運動員正在踢足球”),圖2則是利用卷積神經網絡識別日常物品、人類和動物的例子。最近,卷積神經網絡在一些自然語言處理任務(如語句分類)中也發揮了很大作用。

圖2

因此,卷積神經網絡是當今大多數機器學習實踐者的重要工具。但是,理解卷積神經網絡并開始嘗試運用著實是一個痛苦的過程。本文的主要目的是了解卷積神經網絡如何處理圖像。

對于剛接觸神經網絡的人,我建議大家先閱讀這篇關于多層感知機的簡短教程?,了解其工作原理之后再繼續閱讀本文。多層感知機即本文中的“完全連接層”。

?LeNet 框架(20世紀90年代)

LeNet 是最早推動深度學習領域發展的卷積神經網絡之一。這項由 Yann LeCun 完成的開創性工作自1988年以來多次成功迭代之后被命名為?LeNet5。當時 LeNet 框架主要用于字符識別任務,例如閱讀郵政編碼,數字等。

接下來,我們將直觀地了解 LeNet 框架如何學習識別圖像。 近年來有人提出了幾種基于 LeNet 改進的新框架,但是它們的基本思路與 LeNet 并無差別,如果您清楚地理解了 LeNet,那么對這些新的框架理解起來就相對容易很多。

圖3: 一個簡單的卷積神經網絡


3中的卷積神經網絡在結構上與原始的 LeNet 類似,并將輸入圖像分為四類:狗,貓,船或鳥(原始的 LeNet 主要用于字符識別任務)。 從上圖可以看出,接收船只圖像作為輸入時,神經網絡在四個類別中正確地給船只分配了最高概率值(0.94)。輸出層中所有概率的總和應該是1(之后會做解釋)。

3?的卷積神經網絡中有四個主要操作:

  • 卷積

  • 非線性變換(ReLU)

  • 池化或子采樣

  • 分類(完全連接層)

  • 這些操作是所有卷積神經網絡的基本組成部分,因此了解它們的工作原理是理解卷積神經網絡的重要步驟。下面我們將嘗試直觀地理解每個操作。

    ?一張圖片就是一個由像素值組成的矩陣?

    實質上,每張圖片都可以表示為由像素值組成的矩陣。

    圖4: 每張圖片就是一個像素矩陣


    通道(channel)是一個傳統術語,指圖像的一個特定成分。標準數碼相機拍攝的照片具有三個通道——紅,綠和藍——你可以將它們想象為三個堆疊在一起的二維矩陣(每種顏色一個),每個矩陣的像素值都在0到255之間。

    而灰度圖像只有一個通道。 鑒于本文的科普目的,我們只考慮灰度圖像,即一個代表圖像的二維矩陣。矩陣中每個像素值的范圍在0到255之間——0表示黑色,255表示白色。

    卷積?

    卷積神經網絡的名字來源于“卷積”運算。在卷積神經網絡中,卷積的主要目的是從輸入圖像中提取特征。通過使用輸入數據中的小方塊來學習圖像特征,卷積保留了像素間的空間關系。我們在這里不會介紹卷積的數學推導,但會嘗試理解它是如何處理圖像的。

    正如前文所說,每個圖像可以被看做像素值矩陣??紤]一個像素值僅為0和1的5 × 5大小的圖像(注意,對于灰度圖像,像素值范圍從0到255,下面的綠色矩陣是像素值僅為0和1的特殊情況):

    另外,考慮另一個 3×3 矩陣,如下圖所示:

    上述5 x 5圖像和3 x 3矩陣的卷積計算過程如5中的動畫所示:

    圖5:卷積操作。輸出矩陣稱作“卷積特征”或“特征映射”


    我們來花點時間理解一下上述計算是如何完成的。將橙色矩陣在原始圖像(綠色)上以每次1個像素的速率(也稱為“步幅”)移動,對于每個位置,計算兩個矩陣相對元素的乘積并相加,輸出一個整數并作為最終輸出矩陣(粉色)的一個元素。注意,3 × 3矩陣每個步幅僅能“看到”輸入圖像的一部分。

    在卷積神經網路的術語中,這個3 × 3矩陣被稱為“過濾器”或“核”或“特征探測器”,通過在圖像上移動過濾器并計算點積得到的矩陣被稱為“卷積特征”或“激活映射”或“特征映射”。重要的是要注意,過濾器的作用就是原始輸入圖像的特征檢測器。

    從上面的動畫可以明顯看出,對于同一張輸入圖像,不同的過濾器矩陣將會產生不同的特征映射。例如,考慮如下輸入圖像:

    在下表中,我們可以看到上圖在不同過濾器下卷積的效果。如圖所示,只需在卷積運算前改變過濾器矩陣的數值就可以執行邊緣檢測,銳化和模糊等不同操作 [8] —— 這意味著不同的過濾器可以檢測圖像的不同特征,例如邊緣, 曲線等。更多此類示例可在?這里?8.2.4節中找到。

    另一個理解卷積操作的好方法可以參考下面文字:

    一個過濾器(紅色邊框)在輸入圖像上移動(卷積操作)以生成特征映射。在同一張圖像上,另一個過濾器(綠色邊框)的卷積生成了不同的特征圖,如圖所示。需要注意到,卷積操作捕獲原始圖像中的局部依賴關系很重要。還要注意這兩個不同的過濾器如何從同一張原始圖像得到不同的特征圖。請記住,以上圖像和兩個過濾器只是數值矩陣。

    實際上,卷積神經網絡在訓練過程中會自己學習這些過濾器的值(盡管在訓練過程之前我們仍需要指定諸如過濾器數目、大小,網絡框架等參數)。我們擁有的過濾器數目越多,提取的圖像特征就越多,我們的網絡在識別新圖像時效果就會越好。

    特征映射(卷積特征)的大小由我們在執行卷積步驟之前需要決定的三個參數[4]控制:

    • 深度:深度對應于我們用于卷積運算的過濾器數量。在圖6所示的網絡中,我們使用三個不同的過濾器對初始的船圖像進行卷積,從而生成三個不同的特征圖??梢詫⑦@三個特征地圖視為堆疊的二維矩陣,因此,特征映射的“深度”為3。

    圖6


    • 步幅:步幅是我們在輸入矩陣上移動一次過濾器矩陣的像素數量。當步幅為1時,我們一次將過濾器移動1個像素。當步幅為2時,過濾器每次移動2個像素。步幅越大,生成的特征映射越小。

    • 零填充:有時,將輸入矩陣邊界用零來填充會很方便,這樣我們可以將過濾器應用于輸入圖像矩陣的邊界元素。零填充一個很好的特性是它允許我們控制特征映射的大小。添加零填充也稱為寬卷積,而不使用零填充是為窄卷積。 這在[14]中有清楚的解釋。

    ?非線性部分介紹(ReLU)

    如上文3所示,每次卷積之后,都進行了另一項稱為 ReLU 的操作。ReLU 全稱為修正線性單元(Rectified Linear Units),是一種非線性操作。 其輸出如下圖所示:

    圖7: ReLU 函數


    ReLU 是一個針對元素的操作(應用于每個像素),并將特征映射中的所有負像素值替換為零。ReLU 的目的是在卷積神經網絡中引入非線性因素,因為在實際生活中我們想要用神經網絡學習的數據大多數都是非線性的(卷積是一個線性運算 —— 按元素進行矩陣乘法和加法,所以我們希望通過引入 ReLU 這樣的非線性函數來解決非線性問題)。

    8可以很清楚地理解 ReLU 操作。它展示了將 ReLU 作用于某個特征映射得到的結果。這里的輸出特征映射也被稱為“修正”特征映射。

    圖8: ReLU 操作


    其他非線性函數諸如?tanh?或?sigmoid?也可以用來代替 ReLU,但是在大多數情況下,ReLU 的表現更好。

    ?池化?

    空間池化(也稱為子采樣或下采樣)可降低每個特征映射的維度,并保留最重要的信息。空間池化有幾種不同的方式:最大值,平均值,求和等。

    在最大池化的情況下,我們定義一個空間鄰域(例如,一個2 × 2窗口),并取修正特征映射在該窗口內最大的元素。當然我們也可以取該窗口內所有元素的平均值(平均池化)或所有元素的總和。在實際運用中,最大池化的表現更好。

    9展示了通過2 × 2窗口在修正特征映射(卷積+ ReLU 操作后得到)上應用最大池化操作的示例。

    圖9: 最大池化


    我們將2 x 2窗口移動2個單元格(也稱為“步幅”),并取每個區域中的最大值。如9所示,這樣就降低了特征映射的維度。

    10所示的網絡中,池化操作分別應用于每個特征映射(因此,我們從三個輸入映射中得到了三個輸出映射)。

    圖10: 在修正特征映射上應用池化


    11展示了我們對8中經過 ReLU 操作之后得到的修正特征映射應用池化之后的效果。

    圖11: 池化


    池化的作用是逐步減少輸入的空間大小[4]。具體來說有以下四點:

    • 使輸入(特征維度)更小,更易于管理

    • 減少網絡中的參數和運算次數,因此可以控制過擬合?[4]

    • 使網絡對輸入圖像微小的變換、失真和平移更加穩健(輸入圖片小幅度的失真不會改池化的輸出結果 —— 因為我們取了鄰域的最大值/平均值)。

    • 可以得到尺度幾乎不變的圖像(確切的術語是“等變”)。這是非常有用的,這樣無論圖片中的物體位于何處,我們都可以檢測到,(詳情參閱[18]和[19])。

    至此…

    圖12


    目前為止,我們已經了解了卷積,ReLU 和池化的工作原理。這些是卷積神經網絡的基本組成部分,理解這一點很重要。如13所示,我們有兩個由卷積,ReLU 和 Pooling 組成的中間層 —— 第二個卷積層使用六個過濾器對第一層的輸出執行卷積,生成六個特征映射。然后將 ReLU 分別應用于這六個特征映射。接著,我們對六個修正特征映射分別執行最大池化操作。

    這兩個中間層的作用都是從圖像中提取有用的特征,在網絡中引入非線性因素,同時對特征降維并使其在尺度和平移上等變[18]。

    第二個池化層的輸出即完全連接層的輸入,我們將在下一節討論。

    ?完全連接層?

    完全連接層是一個傳統的多層感知器,它在輸出層使用 softmax 激活函數(也可以使用其他分類器,比如 SVM,但在本文只用到了 softmax)?!巴耆B接”這個術語意味著前一層中的每個神經元都連接到下一層的每個神經元。 如果對多層感知器不甚了解,我建議您閱讀這篇文章。

    卷積層和池化層的輸出代表了輸入圖像的高級特征。完全連接層的目的是利用這些基于訓練數據集得到的特征,將輸入圖像分為不同的類。例如,我們要執行的圖像分類任務有四個可能的輸出,如13所示(請注意,圖14沒有展示出完全連接層中節點之間的連接)

    圖13: 完全連接層——每個節點都與相鄰層的其他節點連接


    除分類之外,添加完全連接層也是一個(通常來說)比較簡單的學習這些特征非線性組合的方式。卷積層和池化層得到的大部分特征對分類的效果可能也不錯,但這些特征的組合可能會更好[11]。

    完全連接層的輸出概率之和為1。這是因為我們在完全連接層的輸出層使用了 softmax 激活函數。Softmax 函數取任意實數向量作為輸入,并將其壓縮到數值在0到1之間,總和為1的向量。

    ?正式開始——使用反向傳播進行訓練?

    如上所述,卷積+池化層用來從輸入圖像提取特征,完全連接層用來做分類器。

    注意,在14中,由于輸入圖像是船,對于船類目標概率為1,其他三個類為0

    • 輸入圖像 = 船

    • 目標向量 = [0, 0, 1, 0]

    圖14:訓練卷積神經網絡


    卷積網絡的整體訓練過程概括如下:

    • 步驟1:用隨機值初始化所有過濾器和參數/權重

    • 步驟2:神經網絡將訓練圖像作為輸入,經過前向傳播步驟(卷積,ReLU 和池化操作以在完全連接層中的前向傳播),得到每個類的輸出概率。

    • 假設上面船只圖像的輸出概率是 [0.2,0.4,0.1,0.3]

    • 由于權重是隨機分配給第一個訓練樣本,因此輸出概率也是隨機的。

    • 步驟3:計算輸出層的總誤差(對所有4個類進行求和)

    • 總誤差=∑ ?(目標概率 – 輸出概率)2

    • 步驟4:使用反向傳播計算網絡中所有權重的誤差梯度,并使用梯度下降更新所有過濾器值/權重和參數值,以最小化輸出誤差。

    • 根據權重對總誤差的貢獻對其進行調整。

    • 當再次輸入相同的圖像時,輸出概率可能就變成了 [0.1,0.1,0.7,0.1],這更接近目標向量 [0,0,1,0]。

    • 這意味著網絡已經學會了如何通過調整其權重/過濾器并減少輸出誤差的方式對特定圖像進行正確分類。

    • 過濾器數量、大小,網絡結構等參數在步驟1之前都已經固定,并且在訓練過程中不會改變 —— 只會更新濾器矩陣和連接權值。

    • 步驟5:對訓練集中的所有圖像重復步驟2-4。

    ?

    通過以上步驟就可以訓練出卷積神經網絡 —— 這實際上意味著卷積神經網絡中的所有權重和參數都已經過優化,可以對訓練集中的圖像進行正確分類。

    當我們給卷積神經網絡中輸入一個新的(未見過的)圖像時,網絡會執行前向傳播步驟并輸出每個類的概率(對于新圖像,計算輸出概率所用的權重是之前優化過,并能夠對訓練集完全正確分類的)。如果我們的訓練集足夠大,神經網絡會有很好的泛化能力(但愿如此)并將新圖片分到正確的類里。

    注1為了給大家提供一個直觀的訓練過程,上述步驟已經簡化了很多,并且忽略了數學推導過程。如果想要數學推導以及對卷積神經網絡透徹的理解,請參閱 [4] 和 [12]。

    2上面的例子中,我們使用了兩組交替的卷積和池化層。但請注意,這些操作可以在一個卷積神經網絡中重復執行多次。實際上,現在效果最好的一些卷積神經網絡都包含幾十個卷積和池化層! 另外,每個卷積層之后的池化層不是必需的。從下面的15中可以看出,在進行池化操作之前,我們可以連續進行多個卷積 + ReLU 操作。另外請注意圖16卷積神經網絡的每一層是如何展示的。

    圖15

    ?卷積神經網絡的可視化?

    一般來說,卷積步驟越多,神經網絡能夠學習識別的特征就更復雜。例如,在圖像分類中,卷積神經網絡在第一層可能會學習檢測原始像素的邊緣,然后在第二層利用這些邊緣檢測簡單形狀,然后在更高級的層用這些形狀來檢測高級特征,例如面部形狀 [14]。16演示了這個過程 —— 這些特征是使用卷積深度信念網絡學習的,這張圖片只是為了演示思路(這只是一個例子:實際上卷積過濾器識別出來的對象可能對人來說并沒有什么意義)。

    圖16: 卷積深度信念網絡學習特征


    Adam Harley 創建了一個基于 MNIST 手寫數字數據集 [13]訓練卷積神經網絡的可視化。我強烈推薦大家?使用它來了解卷積神經網絡的工作細節。

    我們在下圖中可以看到神經網絡對于輸入數字“8”的具體操作細節。請注意,18中并未單獨顯示ReLU操作。

    圖17:基于手寫數字訓練卷積神經網絡的可視化


    輸入圖像包含 1024 個像素點(32 × 32 圖像),第一個卷積層(卷積層1)由六個不同的5 × 5(步幅為1)過濾器與輸入圖像卷積而成。如圖所示,使用六個不同的過濾器得到深度為六的特征映射。

    卷積層1之后是池化層1,它在卷積層1中的六個特征映射上分別進行2 × 2最大池化(步幅為2)。將鼠標指針移動到池化層的任意像素上,可以觀察到它來自于2 x 2網格在前一個卷積層中的作用(如18所示)。注意到2 x 2網格中具有最大值(最亮的那個)的像素點會被映射到池化層。

    圖18:池化操作可視化


    池化層1之后是十六個執行卷積操作的5 × 5(步幅為1)卷積過濾器。然后是執行2 × 2最大池化(步幅為2)的池化層2。 這兩層的作用與上述相同。

    然后有三個完全連接(FC)層:

    • 第一個FC層中有120個神經元

    • 第二個FC層中有100個神經元

    • 第三個FC層中的10個神經元對應于10個數字 —— 也稱為輸出層

    注意,在19中,輸出層的10個節點每一個都連接到第二個完全連接層中的全部100個節點(因此稱為完全連接)。

    另外,注意為什么輸出層中唯一明亮的節點是’8’ —— 這意味著神經網絡對我們的手寫數字進行了正確分類(節點亮度越高表示它的輸出更高,即8在所有數字中具有最高的概率)。

    圖19:完全連接層可視化


    該可視化系統的 3D 版本在此。

    ?其他卷積神經網絡框架?

    卷積神經網絡始于20世紀90年代初。我們已經討論了LeNet,它是最早的卷積神經網絡之一。下面列出了其他一些有影響力的神經網絡框架 [3] [4]。

    • LeNet (20世紀90年代)本文已詳述。

    • 20世紀90年代到2012年:從20世紀90年代后期到2010年初,卷積神經網絡正處于孵化期。隨著越來越多的數據和計算能力的提升,卷積神經網絡可以解決的任務變得越來越有趣。

    • AlexNet(2012?– 2012年,Alex Krizhevsky(和其他人)發布了?AlexNet,它是提升了深度和廣度版本的 LeNet,并在2012年以巨大優勢贏得了 ImageNet 大規模視覺識別挑戰賽(ILSVRC)。這是基于之前方法的重大突破,目前 CNN 的廣泛應用都要歸功于 AlexNet。

    • ZF Net(2013?– 2013年 ILSVRC 獲獎者來自 Matthew Zeiler 和 Rob Fergus 的卷積網絡。它被稱為?ZFNet(Zeiler 和 Fergus Net 的簡稱)。它在 AlexNet 的基礎上通過調整網絡框架超參數對其進行了改進。

    • GoogLeNet2014?– 2014年 ILSVRC 獲獎者是 Google 的?Szegedy 等人的卷積網絡。其主要貢獻是開發了一個初始模塊,該模塊大大減少了網絡中的參數數量(4M,而 AlexNet 有60M)。

    • VGGNet2014?– 2014年 ILSVRC 亞軍是名為?VGGNet?的網絡。其主要貢獻在于證明了網絡深度(層數)是影響性能的關鍵因素。

    • ResNets2015?– 何凱明(和其他人)開發的殘差網絡是2015年 ILSVRC 的冠軍。ResNets 是迄今為止最先進的卷積神經網絡模型,并且是大家在實踐中使用卷積神經網絡的默認選擇(截至2016年5月)。

    • DenseNet20168月)?– 最近由黃高等人發表,密集連接卷積網絡的每一層都以前饋方式直接連接到其他層。 DenseNet 已經在五項競爭激烈的對象識別基準測試任務中證明自己比之前最先進的框架有了顯著的改進。具體實現請參考這個網址。


    ?結論?

    本文中,我嘗試著用一些簡單的術語解釋卷積神經網絡背后的主要概念,同時簡化/略過了幾個細節部分,但我希望這篇文章能夠讓你直觀地理解其工作原理。

    本文最初是受 Denny Britz 《理解卷積神經網絡在自然語言處理上的運用》這篇文章的啟發(推薦閱讀),文中的許多解釋是基于這篇文章的。為了更深入地理解其中一些概念,我鼓勵您閱讀斯坦福大學卷積神經網絡課程的筆記以及一下參考資料中提到的其他很棒的資源。如果您對上述概念的理解遇到任何問題/建議,請隨時在下面留言。

    文中所使用的所有圖像和動畫均屬于其各自的作者,陳列如下。

    參考

  • karpathy/neuraltalk2: Efficient Image Captioning code in Torch,?Examples

  • Shaoqing Ren, et al, “Faster R-CNN: Towards Real-Time Object Detection with Region Proposal Networks”, 2015,?arXiv:1506.01497

  • Neural Network Architectures, Eugenio Culurciello’s blog

  • CS231n Convolutional Neural Networks for Visual Recognition, Stanford

  • Clarifai/Technology

  • Machine Learning is Fun! Part 3: Deep Learning and Convolutional Neural Networks

  • Feature extraction using convolution, Stanford

  • Wikipedia article on Kernel (image processing)

  • Deep Learning Methods for Vision, CVPR 2012 Tutorial

  • Neural Networks by Rob Fergus, Machine Learning Summer School 2015

  • What do the fully connected layers do in CNNs?

  • Convolutional Neural Networks, Andrew Gibiansky

  • W. Harley, “An Interactive Node-Link Visualization of Convolutional Neural Networks,” in ISVC, pages 867-877, 2015 (link).?Demo

  • Understanding Convolutional Neural Networks for NLP

  • Backpropagation in Convolutional Neural Networks

  • <a href="https://adeshpande3.github.io/adeshpande3.github.io/A-Beginner" s-guide-to-understanding-convolutional-neural-networks-part-2="" "="" style="border: 0px; color: rgb(0, 153, 204);">A Beginner’s Guide To Understanding Convolutional Neural Networks

  • Vincent Dumoulin, et al, “A guide to convolution arithmetic for deep learning”, 2015,?arXiv:1603.07285

  • What is the difference between deep learning and usual machine learning?

  • How is a convolutional neural network able to learn invariant features?

  • A Taxonomy of Deep Convolutional Neural Nets for Computer Vision

  • Honglak Lee, et al, “Convolutional Deep Belief Networks for Scalable Unsupervised Learning of Hierarchical Representations” (link)


  • 源:伯樂在線

    編輯?∑ Gemini


    微信公眾號“算法數學之美”,由算法與數學之美團隊打造的另一個公眾號,歡迎大家掃碼關注!


    更多精彩:

    ?如何向5歲小孩解釋什么是支持向量機(SVM)?

    ?自然底數e的意義是什么?

    ?費馬大定理,集驚險與武俠于一體

    ?簡單的解釋,讓你秒懂“最優化” 問題

    ?一分鐘看懂一維空間到十維空間

    ??本科、碩士和博士到底有什么區別?

    ?小波變換通俗解釋

    ?微積分必背公式

    ?影響計算機算法世界的十位大師

    ?數據挖掘之七種常用的方法



    算法數學之美微信公眾號歡迎賜稿

    稿件涉及數學、物理、算法、計算機、編程等相關領域,經采用我們將奉上稿酬。

    投稿郵箱:math_alg@163.com


    總結

    以上是生活随笔為你收集整理的直白介绍卷积神经网络(CNN)的全部內容,希望文章能夠幫你解決所遇到的問題。

    如果覺得生活随笔網站內容還不錯,歡迎將生活随笔推薦給好友。

    主站蜘蛛池模板: 久久精品—区二区三区舞蹈 | 99精品久久久久久 | www.youjizz日本| 夜av| 操人网| 黄色片网站大全 | 亚洲熟女一区二区三区 | 午夜寂寞视频 | 黄色网www| 成年人看的黄色 | 欧美伦理一区二区 | 五十路中文字幕 | 色屁屁一区二区三区 | 性感美女高潮 | 上海毛片 | 女人张开腿让男人桶爽 | 麻豆网站在线免费观看 | 日韩一区二区三区在线 | 天天操夜夜干 | 久久久999国产精品 天堂av中文在线 | avxx| 男人爽女人下面动态图 | 日韩黄片一区二区三区 | 久久综合干 | 高潮在线视频 | 亚洲h | 狠狠干,狠狠操 | 特黄特色大片免费视频大全 | 青青在线播放 | 日日夜夜狠狠爱 | 欧美爱爱网 | 国内偷拍第一页 | 亚洲毛片久久 | 色吊妞 | 视色在线 | 国产91在线播放九色 | 日本va视频| 欧美日韩成人在线播放 | 69精品久久久久久久 | 色老头免费视频 | 中文字幕在线观看视频一区二区 | 精品日本一区二区 | 国产人妖一区 | 欧美综合第一页 | 五月婷婷六月天 | 亚洲午夜精品一区二区三区他趣 | 视频在线一区二区三区 | 自拍视频在线 | 国产男女激情 | 黄色一级毛片 | 中文国产在线观看 | 欧美日韩在线一区 | jzzjzz日本丰满成熟少妇 | 国产99久久九九精品无码免费 | 欧美日韩高清一区二区三区 | 欧美另类极品videosbest最新版本 | 丰满人妻综合一区二区三区 | 日韩欧美h | 国产精品成人aaaaa网站 | 青青青免费在线视频 | 91精品国产aⅴ一区 黄色a网 | 乖女从小调教h尿便器小说 欧美韩一区二区 | 成年人午夜| 在线观看久 | 精品人伦一区二区三区 | 亚洲黄色一区二区 | 青青色在线观看 | 久久短视频 | 久久人人爽人人爽人人片亚洲 | av东方在线 | 成年女人免费视频 | 中国免费黄色片 | 国内精品久久久久 | 成人久久在线 | 国产成人一级 | 91网在线播放 | 欧美xxxx8888| 91看片网| 麻豆精品视频在线观看 | 久久久久久国产精品三区 | 午夜激情视频在线播放 | 国产精品久久久久久久久夜色 | 老牛影视av老牛影视av | 日本一级网站 | 中文字幕av播放 | 伊人视频在线观看 | 超碰2019| 麻豆一区二区三区 | 日韩69视频 | 男人操女人的免费视频 | 国产精品网友自拍 | 欧美激情五月 | 亚洲精品无码久久久久 | 超污巨黄的小短文 | 东京干手机福利视频 | 波多野结衣中文字幕在线播放 | 无码人妻精品一区二区蜜桃网站 | 四虎最新网址在线观看 | 亚洲精品国产手机 |