日韩av黄I国产麻豆传媒I国产91av视频在线观看I日韩一区二区三区在线看I美女国产在线I麻豆视频国产在线观看I成人黄色短片

歡迎訪問 生活随笔!

生活随笔

當前位置: 首頁 > 人工智能 > pytorch >内容正文

pytorch

深度学习高能干货:手把手教你搭建MXNet框架

發布時間:2025/3/15 pytorch 33 豆豆
生活随笔 收集整理的這篇文章主要介紹了 深度学习高能干货:手把手教你搭建MXNet框架 小編覺得挺不錯的,現在分享給大家,幫大家做個參考.


導讀:相信很多程序員在學習一門新的編程語言或者框架時,都會先了解下該語言或者該框架涉及的數據結構,畢竟當你清晰地了解了數據結構之后才能更加優雅地編寫代碼,MXNet同樣也是如此。


在MXNet框架中你至少需要了解這三駕馬車:NDArraySymbolModule。這三者將會是你今后在使用MXNet框架時經常用到的接口。那么在搭建或者訓練一個深度學習算法時,這三者到底扮演了一個什么樣的角色呢?


這里可以做一個簡單的比喻,假如將從搭建到訓練一個算法的過程比作是一棟房子從建造到裝修的過程,那么NDArray就相當于是鋼筋水泥這樣的零部件,Symbol就相當于是房子每一層的設計,Module就相當于是房子整體框架的搭建。


在本文中你將實際感受命令式編程(imperative programming)和符號式編程(symbolic programming)的區別,因為NDArray接口采用的是命令式編程的方式,而Symbol接口采用的是符號式編程的方式。


作者:邁克爾·貝耶勒(Michael Beyeler)

如需轉載請聯系大數據(ID:hzdashuju)




01 NDArray


NDArray是MXNet框架中數據流的基礎結構,NDArray的官方文檔地址是:


https://mxnet.apache.org/api/python/ndarray/ndarray.html


與NDArray相關的接口都可以在該文檔中查詢到。在了解NDArray之前,希望你先了解下Python中的NumPy庫:


http://www.numpy.org/


因為一方面在大部分深度學習框架的Python接口中,NumPy庫的使用頻率都非常高;另一方面大部分深度學習框架的基礎數據結構設計都借鑒了NumPy。


在NumPy庫中,一個最基本的數據結構是array,array表示多維數組,NDArray與NumPy庫中的array數據結構的用法非常相似,可以簡單地認為NDArray是可以運行在GPU上的NumPy array。


接下來,我會介紹在NDArray中的一些常用操作,并提供其與NumPy array的對比,方便讀者了解二者之間的關系。


首先,導入MXNet和NumPy,然后通過NDArray初始化一個二維矩陣,代碼如下:


import?mxnet?as?mximport?numpy?as?npa?=?mx.nd.array([[1,2],[3,4]])print(a)as?mx
import?numpy?as?np
a?=?mx.nd.array([[1,2],[3,4]])
print(a)


輸出結果如下:


[[1.?2.]?[3.?4.]]<NDArray?2x2?@cpu(0)>2.]
?[3.?4.]]
<NDArray?2x2?@cpu(0)>


接著,通過NumPy array初始化一個相同的二維矩陣,代碼如下:


b?=?np.array([[1,2],[3,4]])print(b)2],[3,4]])
print(b)


輸出結果如下:


[[1?2]?[3?4]]2]
?[3?4]]


實際使用中常用縮寫mx代替mxnet,mx.nd代替mxnet.ndarray,np代替numpy,本書后續篇章所涉及的代碼默認都采取這樣的縮寫。


再來看看NumPy array和NDArray常用的幾個方法對比,比如打印NDArray的維度信息:


print(a.shape)


輸出結果如下:


(2,?2)2)


打印NumPy array的維度信息:


print(b.shape)


輸出結果如下:


(2,?2)2)


打印NDArray的數值類型:


print(a.dtype)


輸出結果如下:


<class?'numpy.float32'>


打印Numpy array的數值類型:


print(b.dtype)


輸出結果如下:


int64


在使用大部分深度學習框架訓練模型時默認采用的都是float32數值類型,因此初始化一個NDArray對象時默認的數值類型是float32。


如果你想要初始化指定數值類型的NDArray,那么可以通過dtype參數來指定,代碼如下:


c=mx.nd.array([[1,2],[3,4]],?dtype=np.int8)print(c.dtype)2],[3,4]],?dtype=np.int8)
print(c.dtype)


輸出結果如下:


<class?'numpy.int8'>


如果你想要初始化指定數值類型的NumPy array,則可以像如下這樣輸入代碼:


d?=?np.array([[1,2],[3,4]],?dtype=np.int8)print(d.dtype)2],[3,4]],?dtype=np.int8)
print(d.dtype)


輸出結果如下:


int8


在NumPy的array結構中有一個非常常用的操作是切片(slice),這種操作在NDArray中同樣也可以實現,具體代碼如下:


c?=?mx.nd.array([[1,2,3,4],[5,6,7,8]])print(c[0,1:3])2,3,4],[5,6,7,8]])
print(c[0,1:3])


輸出結果如下:


[2.?3.]<NDArray?2?@cpu(0)>3.]
<NDArray?2?@cpu(0)>


在NumPy array中可以這樣實現:


d?=?np.array([[1,2,3,4],[5,6,7,8]])print(d[0,1:3])2,3,4],[5,6,7,8]])
print(d[0,1:3])


輸出結果如下:


[2?3]3]


在對已有的NumPy array或NDArray進行復制并修改時,為了避免影響到原有的數組,可以采用copy()方法進行數組復制,而不是直接復制,這一點非常重要。下面以NDArray為例來看看采用copy()方法進行數組復制的情況,首先打印出c的內容:


print(c)


輸出結果如下:


[[1.?2.?3.?4.]?[5.?6.?7.?8.]]<NDArray?2x4?@cpu(0)>2.?3.?4.]
?[5.?6.?7.?8.]]
<NDArray?2x4?@cpu(0)>


然后調用c的copy()方法將c的內容復制到f,并打印f的內容:


f?=?c.copy()print(f)


輸出結果如下:


[[1.?2.?3.?4.]?[5.?6.?7.?8.]]<NDArray?2x4?@cpu(0)>2.?3.?4.]
?[5.?6.?7.?8.]]
<NDArray?2x4?@cpu(0)>


修改f中的一個值,并打印f的內容:


f[0,0]?=?-1print(f)0]?=?-1
print(f)


輸出結果如下,可以看到此時對應位置的值已經被修改了:


[[-1.?2.?3.?4.]?[?5.?6.?7.?8.]]<NDArray?2x4?@cpu(0)>2.?3.?4.]
?[?5.?6.?7.?8.]]
<NDArray?2x4?@cpu(0)>


那么c中對應位置的值有沒有被修改呢?可以打印此時c的內容:


print(c)


輸出結果如下,可以看到此時c中對應位置的值并沒有被修改:


[[1.?2.?3.?4.]?[5.?6.?7.?8.]]<NDArray?2x4?@cpu(0)>2.?3.?4.]
?[5.?6.?7.?8.]]
<NDArray?2x4?@cpu(0)>


接下來看看如果直接將c復制給e,會有什么樣的情況發生:


e?=?cprint(e)


輸出結果如下:


[[1.?2.?3.?4.]?[5.?6.?7.?8.]]<NDArray?2x4?@cpu(0)>2.?3.?4.]
?[5.?6.?7.?8.]]
<NDArray?2x4?@cpu(0)>


修改e中的一個值,并打印e的內容:


e[0,0]?=?-1print(e)0]?=?-1
print(e)


輸出內容如下:


[[-1.?2.?3.?4.]?[?5.?6.?7.?8.]]<NDArray?2x4?@cpu(0)>2.?3.?4.]
?[?5.?6.?7.?8.]]
<NDArray?2x4?@cpu(0)>


此時再打印c的內容:


print(c)


輸出結果如下,可以看到對應位置的值也發生了改變:


[[-1.?2.?3.?4.]?[?5.?6.?7.?8.]]<NDArray?2x4?@cpu(0)>2.?3.?4.]
?[?5.?6.?7.?8.]]
<NDArray?2x4?@cpu(0)>


實際上,NumPy array和NDArray之間的轉換也非常方便,NDArray轉NumPy array可以通過調用NDArray對象的asnumpy()方法來實現:


g=e.asnumpy()print(g)


輸出結果如下:


[[-1.?2.?3.?4.]?[?5.?6.?7.?8.]]2.?3.?4.]
?[?5.?6.?7.?8.]]


NumPy array轉NDArray可以通過mxnet.ndarray.array()接口來實現:


print(mx.nd.array(g))


輸出結果如下:


[[-1.?2.?3.?4.]?[?5.?6.?7.?8.]]<NDArray?2x4?@cpu(0)>?2.?3.?4.]
?[?5.?6.?7.?8.]]
<NDArray?2x4?@cpu(0)>?


前面曾提到過NDArray和NumPy array最大的區別在于NDArray可以運行在GPU上,從前面打印出來的NDArray對象的內容可以看到,最后都有一個@cpu,這說明該NDArray對象是初始化在CPU上的,那么如何才能將NDArray對象初始化在GPU上呢?首先,調用NDArray對象的context屬性可以得到變量所在的環境:


print(e.context)


輸出結果如下:


cpu(0)


然后,調用NDArray對象的as_in_context()方法指定變量的環境,例如這里將環境指定為第0塊GPU:


e?=?e.as_in_context(mx.gpu(0))print(e.context)
print(e.context)


輸出結果如下:


gpu(0)


環境(context)是深度學習算法中比較重要的內容,目前常用的環境是CPU或GPU,在深度學習算法中,數據和模型都要在同一個環境中才能正常進行訓練和測試。


MXNet框架中NDArray對象的默認初始化環境是CPU,在不同的環境中,變量初始化其實就是變量的存儲位置不同,而且存儲在不同環境中的變量是不能進行計算的,比如一個初始化在CPU中的NDArray對象和一個初始化在GPU中的NDArray對象在執行計算時會報錯:


f?=?mx.nd.array([[2,3,4,5],[6,7,8,9]])print(e+f)3,4,5],[6,7,8,9]])
print(e+f)


顯示結果如下,從報錯信息可以看出是2個對象的初始化環境不一致導致的:


mxnet.base.MXNetError:?[11:14:13]?src/imperative/./imperative_utils.h:56:?Check?failed:?inputs[i]->ctx().dev_mask()?==?ctx.dev_mask()?(1?vs.?2)?Operator?broadcast_add?require?all?inputs?live?on?the?same?context.?But?the?first?argument?is?on?gpu(0)?while?the?2-th?argument?is?on?cpu(0)14:13]?src/imperative/./imperative_utils.h:56:?Check?failed:?inputs[i]->ctx().dev_mask()?==?ctx.dev_mask()?(1?vs.?2)?Operator?broadcast_add?require?all?inputs?live?on?the?same?context.?But?the?first?argument?is?on?gpu(0)?while?the?2-th?argument?is?on?cpu(0)


下面將f的環境也修改成GPU,再執行相加計算:


f?=?f.as_in_context(mx.gpu(0))print(e+f)
print(e+f)


輸出結果如下:


[[??1.???5.???7.???9.]?[?11.??13.??15.??17.]]<NDArray?2x4?@gpu(0)>5.???7.???9.]
?[?11.??13.??15.??17.]]
<NDArray?2x4?@gpu(0)>


NDArray是MXNet框架中使用最頻繁也是最基礎的數據結構,是可以在CPU或GPU上執行命令式操作(imperative operation)的多維矩陣,這種命令式操作直觀且靈活,是MXNet框架的特色之一。因為在使用MXNet框架訓練模型時,幾乎所有的數據流都是通過NDArray數據結構實現的,因此熟悉該數據結構非常重要。



02 Symbol


Symbol是MXNet框架中用于構建網絡層的模塊,Symbol的官方文檔地址是:


https://mxnet.apache.org/api/python/symbol/symbol.html


與Symbol相關的接口都可以在該文檔中查詢。與NDArray不同的是,Symbol采用的是符號式編程(symbolic programming),其是MXNet框架實現快速訓練和節省顯存的關鍵模塊。


符號式編程的含義,簡單來說就是,符號式編程需要先用Symbol接口定義好計算圖,這個計算圖同時包含定義好的輸入和輸出格式,然后將準備好的數據輸入該計算圖完成計算。


而NDArray采用的是命令式編程(imperative programming),計算過程可以逐步來步實現。其實在你了解了NDArray之后,你完全可以僅僅通過NDArray來定義和使用網絡,那么為什么還要提供Symbol呢?主要是為了提高效率。在定義好計算圖之后,就可以對整個計算圖的顯存占用做優化處理,這樣就能大大降低訓練模型時候的顯存占用。


在MXNet中,Symbol接口主要用來構建網絡結構層,其次是用來定義輸入數據。接下來我們再來列舉一個例子,首先定義一個網絡結構,具體如下。


  • 用mxnet.symbol.Variable()接口定義輸入數據,用該接口定義的輸入數據類似于一個占位符。

  • 用mxnet.symbol.Convolution()接口定義一個卷積核尺寸為3*3,卷積核數量為128的卷積層,卷積層是深度學習算法提取特征的主要網絡層,該層將是你在深度學習算法(尤其是圖像領域)中使用最為頻繁的網絡層。

  • 用 mxnet.symbol.BatchNorm()接口定義一個批標準化(batch normalization,常用縮寫BN表示)層,該層有助于訓練算法收斂。

  • 用mxnet.symbol.Activation()接口定義一個ReLU激活層,激活層主要用來增加網絡層之間的非線性,激活層包含多種類型,其中以ReLU激活層最為常用。

  • 用mxnet.symbol.Pooling()接口定義一個最大池化層(pooling),池化層的主要作用在于通過縮減維度去除特征圖噪聲和減少后續計算量,池化層包含多種形式,常用形式有均值池化和最大池化。

  • 用mxnet.symbol.FullyConnected()接口定義一個全連接層,全連接層是深度學習算法中經常用到的層,一般是位于網絡的最后幾層。需要注意的是,該接口的num_hidden參數表示分類的類別數。

  • 用mxnet.symbol.SoftmaxOutput()接口定義一個損失函數層,該接口定義的損失函數是圖像分類算法中常用的交叉熵損失函數(cross entropy loss),該損失函數的輸入是通過softmax函數得到的,softmax函數是一個變換函數,表示將一個向量變換成另一個維度相同,但是每個元素范圍在[0,1]之間的向量,因此該層用mxnet.symbol.SoftmaxOutput()來命名。這樣就得到了一個完整的網絡結構了。


  • 網絡結構定義代碼如下:


    import?mxnet?as?mxdata?=?mx.sym.Variable('data')conv?=?mx.sym.Convolution(data=data,?num_filter=128,?kernel=(3,3),?pad=(1,1),?name='conv1')bn?=?mx.sym.BatchNorm(data=conv,?name='bn1')relu?=?mx.sym.Activation(data=bn,?act_type='relu',?name='relu1')pool?=?mx.sym.Pooling(data=relu,?kernel=(2,2),?stride=(2,2),?pool_type='max',?name='pool1')fc?=?mx.sym.FullyConnected?(data=pool,?num_hidden=2,?name='fc1')sym?=?mx.sym.SoftmaxOutput?(data=fc,?name='softmax')as?mx
    data?=?mx.sym.Variable('data')
    conv?=?mx.sym.Convolution(data=data,?num_filter=128,?kernel=(3,3),?pad=(1,1),?name='conv1')
    bn?=?mx.sym.BatchNorm(data=conv,?name='bn1')
    relu?=?mx.sym.Activation(data=bn,?act_type='relu',?name='relu1')
    pool?=?mx.sym.Pooling(data=relu,?kernel=(2,2),?stride=(2,2),?pool_type='max',?name='pool1')
    fc?=?mx.sym.FullyConnected?(data=pool,?num_hidden=2,?name='fc1')
    sym?=?mx.sym.SoftmaxOutput?(data=fc,?name='softmax')


    mx.sym是mxnet.symbol常用的縮寫形式,后續篇章默認采用這種縮寫形式。另外在定義每一個網絡層的時候最好都能指定名稱(name)參數,這樣代碼看起來會更加清晰。


    定義好網絡結構之后,你肯定還想看看這個網絡結構到底包含哪些參數,畢竟訓練模型的過程就是模型參數更新的過程,在MXNet中,list_arguments()方法可用于查看一個Symbol對象的參數,命令如下:


    print(sym.list_arguments())


    由下面的輸出結果可以看出,第一個和最后一個分別是'data'和'softmax_label',這二者分別代表輸入數據和標簽;'conv1_weight'和'conv1_bias'是卷積層的參數,具體而言前者是卷積核的權重參數,后者是偏置參數;'bn1_gamma'和'bn1_beta'是BN層的參數;'fc1_weight'和'fc1_bias'是全連接層的參數。


    ['data',?'conv1_weight',?'conv1_bias',?'bn1_gamma',?'bn1_beta',?'fc1_weight',?'fc1_bias',?'softmax_label']'conv1_weight',?'conv1_bias',?'bn1_gamma',?'bn1_beta',?'fc1_weight',?'fc1_bias',?'softmax_label']


    除了查看網絡的參數層名稱之外,有時候我們還需要查看網絡層參數的維度、網絡輸出維度等信息,這一點對于代碼調試而言尤其有幫助。


    在MXNet中,可以用infer_shape()方法查看一個Symbol對象的層參數維度、輸出維度、輔助層參數維度信息,在調用該方法時需要指定輸入數據的維度,這樣網絡結構就會基于指定的輸入維度計算層參數、網絡輸出等維度信息:?


    arg_shape,out_shape,aux_shape?=?sym.infer_shape(data=(1,3,10,10))print(arg_shape)print(out_shape)print(aux_shape)3,10,10))
    print(arg_shape)
    print(out_shape)
    print(aux_shape)


    由下面的輸出結果可知,第一行表示網絡層參數的維度,與前面list_arguments()方法列出來的層參數名一一對應,例如:



    第二行表示網絡輸出的維度,因為網絡的最后一層是輸出節點為2的全連接層,且輸入數據的批次維度是1,所以輸出維度是[(1, 2)]。


    第三行是輔助參數的維度,目前常見的主要是BN層的參數維度。


    [(1,?3,?10,?10),?(128,?3,?3,?3),?(128,),?(128,),?(128,),?(2,?3200),?(2,),?(1,)]?[(1,?2)][(128,),?(128,)]3,?10,?10),?(128,?3,?3,?3),?(128,),?(128,),?(128,),?(2,?3200),?(2,),?(1,)]?
    [(1,?2)]
    [(128,),?(128,)]


    如果要截取通過Symbol模塊定義的網絡結構中的某一部分也非常方便,在MXNet中可以通過get_internals()方法得到Symbol對象的所有層信息,然后選擇要截取的層即可,比如將sym截取成從輸入到池化層為止:


    sym_mini?=?sym.get_internals()['pool1_output']print(sym_mini.list_arguments())
    print(sym_mini.list_arguments())


    輸出結果如下,可以看到層參數中沒有sym原有的全連接層和標簽層信息了:


    ['data',?'conv1_weight',?'conv1_bias',?'bn1_gamma',?'bn1_beta']'conv1_weight',?'conv1_bias',?'bn1_gamma',?'bn1_beta']


    截取之后還可以在截取得到的Symbol對象后繼續添加網絡層,比如增加一個輸出節點為5的全連接層和一個softmax層:


    fc_new?=?mx.sym.FullyConnected?(data=sym_mini,?num_hidden=5,?name='fc_new')sym_new?=?mx.sym.SoftmaxOutput?(data=fc_new,?name='softmax')print(sym_new.list_arguments())'fc_new')
    sym_new?=?mx.sym.SoftmaxOutput?(data=fc_new,?name='softmax')
    print(sym_new.list_arguments())


    輸出結果如下,可以看到全連接層已經被替換了:


    ['data',?'conv1_weight',?'conv1_bias',?'bn1_gamma',?'bn1_beta',?'fc_new_weight',?'fc_new_bias',?'softmax_label']'conv1_weight',?'conv1_bias',?'bn1_gamma',?'bn1_beta',?'fc_new_weight',?'fc_new_bias',?'softmax_label']


    除了定義神經網絡層之外,Symbol模塊還可以實現NDArray的大部分操作,接下來以數組相加和相乘為例介紹通過Symbol模塊實現上述操作的方法。首先通過 mxnet.symbol.Variable()接口定義兩個輸入data_a和data_b;然后定義data_a和data_b相加并與data_c相乘的操作以得到結果s,通過打印s的類型可以看出s的類型是Symbol,代碼如下:


    import?mxnet?as?mxdata_a?=?mx.sym.Variable?('data_a')?????data_b?=?mx.sym.Variable?('data_b')data_c?=?mx.sym.Variable?('data_c')s?=?data_c*(data_a+data_b)print(type(s))as?mx
    data_a?=?mx.sym.Variable?('data_a')?????
    data_b?=?mx.sym.Variable?('data_b')
    data_c?=?mx.sym.Variable?('data_c')
    s?=?data_c*(data_a+data_b)
    print(type(s))


    輸出結果如下:


    <class?'mxnet.symbol.symbol.Symbol'>


    接下來,調用s的bind()方法將具體輸入和定義的操作綁定到執行器,同時還需要為bind()方法指定計算是在CPU還是GPU上進行,執行bind操作后就得到了執行器e,最后打印e的類型進行查看,代碼如下:


    e?=?s.bind(mx.cpu(),?{'data_a':mx.nd.array([1,2,3]),?'data_b':mx.nd.array([4,5,6]),?????'data_c':mx.nd.array([2,3,4])})print(type(e))1,2,3]),?'data_b':mx.nd.array([4,5,6]),?
    ????'data_c':mx.nd.array([2,3,4])})
    print(type(e))


    輸出結果如下:


    <class?'mxnet.executor.Executor'>


    這個執行器就是一個完整的計算圖了,因此可以調用執行器的forward()方法進行計算以得到結果:


    output=e.forward()print(output[0])0])


    輸出結果如下:


    [?10.?21.?36.]<NDArray?3?@cpu(0)>21.?36.]
    <NDArray?3?@cpu(0)>


    相比之下,通過NDArray模塊實現這些操作則要簡潔和直觀得多,代碼如下:


    import?mxnet?as?mxdata_a?=?mx.nd.array([1,2,3])data_b?=?mx.nd.array([4,5,6])data_c?=?mx.nd.array([2,3,4])result?=?data_c*(data_a+data_b)print(result)as?mx
    data_a?=?mx.nd.array([1,2,3])
    data_b?=?mx.nd.array([4,5,6])
    data_c?=?mx.nd.array([2,3,4])
    result?=?data_c*(data_a+data_b)
    print(result)


    輸出結果如下:


    [?10.?21.?36.]<NDArray?3?@cpu(0)>21.?36.]
    <NDArray?3?@cpu(0)>


    雖然使用Symbol接口的實現看起來有些復雜,但是當你定義好計算圖之后,很多顯存是可以重復利用或共享的,比如在Symbol模塊實現版本中,底層計算得到的data_a+data_b的結果會存儲在data_a或data_b所在的空間,因為在該計算圖中,data_a和data_b在執行完相加計算后就不會再用到了。


    前面介紹的是Symbol模塊中Variable接口定義的操作和NDArray模塊中對應實現的相似性,除此之外,Symbol模塊中關于網絡層的操作在NDArray模塊中基本上也有對應的操作,這對于靜態圖的調試來說非常有幫助。


    之前提到過,Symbol模塊采用的是符號式編程(或者稱為靜態圖),即首先需要定義一個計算圖,定義好計算圖之后再執行計算,這種方式雖然高效,但是對代碼調試其實是不大友好的,因為你很難獲取中間變量的值。


    現在因為采用命令式編程的NDArray模塊中基本上包含了Symbol模塊中同名的操作,因此可以在一定程度上幫助調試代碼。接下來以卷積層為例看看如何用NDArray模塊實現一個卷積層操作,首先用mxnet.ndarray.arange()接口初始化輸入數據,這里定義了一個4維數據data,之所以定義為4維是因為模型中的數據流基本上都是4維的。具體代碼如下:


    data?=?mx.nd.arange(0,28).reshape((1,1,4,7))print(data)28).reshape((1,1,4,7))
    print(data)


    輸出結果如下:


    [[[[?0.??1.??2.??3.??4.??5.??6.]???[?7.??8.??9.?10.?11.?12.?13.]???[14.?15.?16.?17.?18.?19.?20.]???[21.?22.?23.?24.?25.?26.?27.]]]]<NDArray?1x1x4x7?@cpu(0)>1.??2.??3.??4.??5.??6.]
    ???[?7.??8.??9.?10.?11.?12.?13.]
    ???[14.?15.?16.?17.?18.?19.?20.]
    ???[21.?22.?23.?24.?25.?26.?27.]]]]
    <NDArray?1x1x4x7?@cpu(0)>


    然后,通過mxnet.ndarray.Convolution()接口定義卷積層操作,該接口的輸入除了與mxnet.symbol.Convolution()接口相同的data、num_filter、kernel和name之外,還需要直接指定weight和bias。


    weight和bias就是卷積層的參數值,為了簡單起見,這里將weight初始化成值全為1的4維變量,bias初始化成值全為0的1維變量,這樣就能得到最后的卷積結果。具體代碼如下:


    conv1?=?mx.nd.Convolution(data=data,?weight=mx.nd.ones((10,1,3,3)),???????????????????????????bias=mx.nd.zeros((10)),?num_filter=10,?kernel=(3,3),??????????????????????????name='conv1')print(conv1)1,3,3)),?
    ??????????????????????????bias=mx.nd.zeros((10)),?num_filter=10,?kernel=(3,3),
    ??????????????????????????name='conv1')
    print(conv1)


    輸出結果如下:


    [[[[?72.??81.??90.??99.?108.]???[135.?144.?153.?162.?171.]]??[[?72.??81.??90.??99.?108.]???[135.?144.?153.?162.?171.]??[[?72.??81.??90.??99.?108.]???[135.?144.?153.?162.?171.]]??[[?72.??81.??90.??99.?108.]???[135.?144.?153.?162.?171.]]??[[?72.??81.??90.??99.?108.]???[135.?144.?153.?162.?171.]]??[[?72.??81.??90.??99.?108.]???[135.?144.?153.?162.?171.]]??[[?72.??81.??90.??99.?108.]???[135.?144.?153.?162.?171.]]??[[?72.??81.??90.??99.?108.]???[135.?144.?153.?162.?171.]]??[[?72.??81.??90.??99.?108.]???[135.?144.?153.?162.?171.]]??[[?72.??81.??90.??99.?108.]???[135.?144.?153.?162.?171.]]]]<NDArray?1x10x2x5?@cpu(0)>81.??90.??99.?108.]
    ???[135.?144.?153.?162.?171.]]
    ??[[?72.??81.??90.??99.?108.]
    ???[135.?144.?153.?162.?171.]
    ??[[?72.??81.??90.??99.?108.]
    ???[135.?144.?153.?162.?171.]]
    ??[[?72.??81.??90.??99.?108.]
    ???[135.?144.?153.?162.?171.]]
    ??[[?72.??81.??90.??99.?108.]
    ???[135.?144.?153.?162.?171.]]
    ??[[?72.??81.??90.??99.?108.]
    ???[135.?144.?153.?162.?171.]]
    ??[[?72.??81.??90.??99.?108.]
    ???[135.?144.?153.?162.?171.]]
    ??[[?72.??81.??90.??99.?108.]
    ???[135.?144.?153.?162.?171.]]
    ??[[?72.??81.??90.??99.?108.]
    ???[135.?144.?153.?162.?171.]]
    ??[[?72.??81.??90.??99.?108.]
    ???[135.?144.?153.?162.?171.]]]]
    <NDArray?1x10x2x5?@cpu(0)>


    總體來看,Symbol和NDArray有很多相似的地方,同時,二者在MXNet中都扮演著重要的角色。采用命令式編程的NDArray其特點是直觀,常用來實現底層的計算;采用符號式編程的Symbol其特點是高效,主要用來定義計算圖。



    03 Module


    在MXNet框架中,Module是一個高級的封裝模塊,可用來執行通過Symbol模塊定義的網絡模型的訓練,與Module相關的接口介紹都可以參考Module的官方文檔地址:


    https://mxnet.apache.org/api/python/module/module.html


    Module接口提供了許多非常方便的方法用于模型訓練,只需要將準備好的數據、超參數等傳給對應的方法就能啟動訓練。


    上午中,我們用Symbol接口定義了一個網絡結構sym,接下來我們將基于這個網絡結構介紹Module模塊,首先來看看如何通過Module模塊執行模型的預測操作。


    通過mxnet.module.Module()接口初始化一個Module對象,在初始化時需要傳入定義好的網絡結構sym并指定運行環境,這里設置為GPU環境。


    然后執行Module對象的bind操作,這個bind操作與Symbol模塊中的bind操作類似,目的也是將網絡結構添加到執行器,使得定義的靜態圖能夠真正運行起來,因為這個過程涉及顯存分配,因此需要提供輸入數據和標簽的維度信息才能執行bind操作,讀者可以在命令行通過“$ watch nvidia-smi”命令查看執行bind前后,顯存的變化情況。


    bind操作中還存在一個重要的參數是for_training,這個參數默認是True,表示接下來要進行的是訓練過程,因為我們這里只需要進行網絡的前向計算操作,因此將該參數設置為False。


    最后調用Module對象的init_params()方法初始化網絡結構的參數,初始化的方式是可以選擇的,這里采用默認方式,至此,一個可用的網絡結構執行器就初始化完成了。初始化網絡結構執行器的代碼具體如下:


    mod?=?mx.mod.Module(symbol=sym,?context=mx.gpu(0))mod.bind(data_shapes=[('data',(8,3,28,28))],?????????label_shapes=[('softmax_label',(8,))],?????????for_training=False)mod.init_params()
    mod.bind(data_shapes=[('data',(8,3,28,28))],
    ?????????label_shapes=[('softmax_label',(8,))],
    ?????????for_training=False)
    mod.init_params()


    接下來隨機初始化一個4維的輸入數據,該數據的維度需要與初始化Module對象時設定的數據維度相同,然后通過mxnet.io.DataBatch()接口封裝成一個批次數據,之后就可以作為Module對象的forward()方法的輸入了,執行完前向計算后,調用Module對象的get_outputs()方法就能得到模型的輸出結果,具體代碼如下:


    data?=?mx.nd.random.uniform(0,1,shape=(8,3,28,28))mod.forward(mx.io.DataBatch([data]))print(mod.get_outputs()[0])1,shape=(8,3,28,28))
    mod.forward(mx.io.DataBatch([data]))
    print(mod.get_outputs()[0])


    輸出結果如下,因為輸入數據的批次大小是8,網絡的全連接層輸出節點數是2,因此輸出的維度是8*2:


    [[?0.50080067??0.4991993?]?[?0.50148612??0.49851385]?[?0.50103837??0.4989616?]?[?0.50171131??0.49828872]?[?0.50254387??0.4974561?]?[?0.50104254??0.49895743]?[?0.50223148??0.49776852]?[?0.49780959??0.50219035]]<NDArray?8x2?@gpu(0)>0.4991993?]
    ?[?0.50148612??0.49851385]
    ?[?0.50103837??0.4989616?]
    ?[?0.50171131??0.49828872]
    ?[?0.50254387??0.4974561?]
    ?[?0.50104254??0.49895743]
    ?[?0.50223148??0.49776852]
    ?[?0.49780959??0.50219035]]
    <NDArray?8x2?@gpu(0)>


    接下來介紹如何通過Module模塊執行模型的訓練操作,代碼部分與預測操作有較多地方是相似的,具體代碼見下文代碼清單3-1,接下來詳細介紹代碼內容。


    本文中的代碼清單都可以在本書的項目代碼地址中找到:


    https://github.com/miraclewkf/MXNet-Deep-Learning-in-Action


  • 使用mxnet.io.NDArrayIter()接口初始化得到訓練和驗證數據迭代器,這里為了演示采用隨機初始化的數據,實際應用中要讀取有效的數據,不論讀取的是什么樣的數據,最后都需要封裝成數據迭代器才能提供給模型訓練。

  • 用mxnet.module.Module()接口初始化得到一個Module對象,這一步至少要輸入一個Symbol對象,另外這一步還可以指定訓練環境是CPU還是GPU,這里采用GPU。

  • 調用Module對象的bind()方法將準備好的數據和網絡結構連接到執行器構成一個完整的計算圖。

  • 調用Module對象的init_params()方法初始化網絡的參數,因為前面定義的網絡結構只是一個架子,里面沒有參數,因此需要執行參數初始化。

  • 調用Module對象的init_optimizer()方法初始化優化器,默認采用隨機梯度下降法(stochastic gradient descent,SGD)進行優化。

  • 調用mxnet.metric.create()接口創建評價函數,這里采用的是準確率(accuracy)。

  • 執行5次循環訓練,每次循環都會將所有數據過一遍模型,因此在循環開始處需要執行評價函數的重置操作、數據的初始讀取等操作。

  • 此處的while循環只有在讀取完訓練數據之后才會退出,該循環首先會調用Module對象的forward()方法執行模型的前向計算,這一步就是輸入數據通過每一個網絡層的參數進行計算并得到最后結果。

  • 調用Module對象的backward()方法執行模型的反向傳播計算,這一步將涉及損失函數的計算和梯度的回傳。

  • 調用Module對象的update()方法執行參數更新操作,參數更新的依據就是第9步計算得到的梯度,這樣就完成了一個批次(batch)數據對網絡參數的更新。

  • 調用Module對象的update_metric()方法更新評價函數的計算結果。

  • 讀取下一個批次的數據,這里采用了Python中的try和except語句,表示如果try包含的語句執行出錯,則執行except包含的語句,這里用來標識是否讀取到了數據集的最后一個批次。

  • 調用評價對象的get_name_value()方法并打印此次計算的結果。

  • 調用Module對象的get_params()方法讀取網絡參數,并利用這些參數初始化Module對象了。

  • 調用數據對象的reset()方法進行重置,這樣在下一次循環中就可以從數據的最初始位置開始讀取了。



  • import?mxnet?as?mximport?loggingdata?=?mx.sym.Variable('data')conv?=?mx.sym.Convolution(data=data,?num_filter=128,?kernel=(3,3),?pad=(1,1),??????????????????????????name='conv1')bn?=?mx.sym.BatchNorm(data=conv,?name='bn1')relu?=?mx.sym.Activation(data=bn,?act_type='relu',?name='relu1')pool?=?mx.sym.Pooling(data=relu,?kernel=(2,2),?stride=(2,2),?pool_type='max',??????????????????????name='pool1')fc?=?mx.sym.FullyConnected(data=pool,?num_hidden=2,?name='fc1')sym?=?mx.sym.SoftmaxOutput(data=fc,?name='softmax')data?=?mx.nd.random.uniform(0,1,shape=(1000,3,224,224))label?=?mx.nd.round(mx.nd.random.uniform(0,1,shape=(1000)))train_data?=?mx.io.NDArrayIter(data={'data':data},???????????????????????????????label={'softmax_label':label},???????????????????????????????batch_size=8,???????????????????????????????shuffle=True)print(train_data.provide_data)print(train_data.provide_label)mod?=?mx.mod.Module(symbol=sym,context=mx.gpu(0))mod.bind(data_shapes=train_data.provide_data,?????????label_shapes=train_data.provide_label)mod.init_params()mod.init_optimizer()eval_metric?=?mx.metric.create('acc')for?epoch?in?range(5):????end_of_batch?=?False????eval_metric.reset()????data_iter?=?iter(train_data)????next_data_batch?=?next(data_iter)????while?not?end_of_batch:????????data_batch?=?next_data_batch????????mod.forward(data_batch)????????mod.backward()????????mod.update()????????mod.update_metric(eval_metric,?labels=data_batch.label)????????try:????????????next_data_batch?=?next(data_iter)????????????mod.prepare(next_data_batch)????????except?StopIteration:????????????end_of_batch?=?True????eval_name_vals?=?eval_metric.get_name_value()????print("Epoch:{}?Train_Acc:{:.4f}".format(epoch,?eval_name_vals[0][1]))????arg_params,?aux_params?=?mod.get_params()????mod.set_params(arg_params,?aux_params)????train_data.reset()as?mx
    import?logging

    data?=?mx.sym.Variable('data')
    conv?=?mx.sym.Convolution(data=data,?num_filter=128,?kernel=(3,3),?pad=(1,1),
    ??????????????????????????name='conv1')
    bn?=?mx.sym.BatchNorm(data=conv,?name='bn1')
    relu?=?mx.sym.Activation(data=bn,?act_type='relu',?name='relu1')
    pool?=?mx.sym.Pooling(data=relu,?kernel=(2,2),?stride=(2,2),?pool_type='max',
    ??????????????????????name='pool1')
    fc?=?mx.sym.FullyConnected(data=pool,?num_hidden=2,?name='fc1')
    sym?=?mx.sym.SoftmaxOutput(data=fc,?name='softmax')

    data?=?mx.nd.random.uniform(0,1,shape=(1000,3,224,224))
    label?=?mx.nd.round(mx.nd.random.uniform(0,1,shape=(1000)))
    train_data?=?mx.io.NDArrayIter(data={'data':data},
    ???????????????????????????????label={'softmax_label':label},
    ???????????????????????????????batch_size=8,
    ???????????????????????????????shuffle=True)

    print(train_data.provide_data)
    print(train_data.provide_label)
    mod?=?mx.mod.Module(symbol=sym,context=mx.gpu(0))
    mod.bind(data_shapes=train_data.provide_data,
    ?????????label_shapes=train_data.provide_label)
    mod.init_params()
    mod.init_optimizer()
    eval_metric?=?mx.metric.create('acc')
    for?epoch?in?range(5):
    ????end_of_batch?=?False
    ????eval_metric.reset()
    ????data_iter?=?iter(train_data)
    ????next_data_batch?=?next(data_iter)
    ????while?not?end_of_batch:
    ????????data_batch?=?next_data_batch
    ????????mod.forward(data_batch)
    ????????mod.backward()
    ????????mod.update()
    ????????mod.update_metric(eval_metric,?labels=data_batch.label)
    ????????try:
    ????????????next_data_batch?=?next(data_iter)
    ????????????mod.prepare(next_data_batch)
    ????????except?StopIteration:
    ????????????end_of_batch?=?True
    ????eval_name_vals?=?eval_metric.get_name_value()
    ????print("Epoch:{}?Train_Acc:{:.4f}".format(epoch,?eval_name_vals[0][1]))
    ????arg_params,?aux_params?=?mod.get_params()
    ????mod.set_params(arg_params,?aux_params)
    ????train_data.reset()


    代碼清單3-1中的代碼其實從mod.bind()方法這一行到最后都可以用Module模塊中的fit()方法來實現。fit()方法不僅封裝了上述的bind操作、參數初始化、優化器初始化、模型的前向計算、反向傳播、參數更新和計算評價指標等操作,還提供了保存訓練結果等其他操作,因此fit()方法將是今后使用MXNet訓練模型時經常調用的方法。


    下面這段代碼就演示了fit()方法的調用,前面兩行設置命令行打印訓練信息,這三行代碼可以直接替換代碼清單3-1中從mod.bind()那一行到最后的所有代碼。


    在fit()方法的輸入參數中,train_data參數是訓練數據,num_epoch參數是訓練時整個訓練集的迭代次數(也稱epoch數量)。需要注意的是,將所有train_data過一遍模型才算完成一個epoch,因此這里設定為將這個訓練集數據過5次模型才完成訓練。


    logger?=?logging.getLogger()logger.setLevel(logging.INFO)mod.fit(train_data=train_data,?num_epoch=5)
    mod.fit(train_data=train_data,?num_epoch=5)


    簡化版的代碼如代碼清單3-2所示。



    import?mxnet?as?mximport?loggingdata?=?mx.sym.Variable('data')conv?=?mx.sym.Convolution(data=data,?num_filter=128,?kernel=(3,3),?pad=(1,1),??????????????????????????name='conv1')bn?=?mx.sym.BatchNorm(data=conv,?name='bn1')relu?=?mx.sym.Activation(data=bn,?act_type='relu',?name='relu1')pool?=?mx.sym.Pooling(data=relu,?kernel=(2,2),?stride=(2,2),?pool_type='max',??????????????????????name='pool1')fc?=?mx.sym.FullyConnected(data=pool,?num_hidden=2,?name='fc1')sym?=?mx.sym.SoftmaxOutput(data=fc,?name='softmax')data?=?mx.nd.random.uniform(0,1,shape=(1000,3,224,224))label?=?mx.nd.round(mx.nd.random.uniform(0,1,shape=(1000)))train_data?=?mx.io.NDArrayIter(data={'data':data},???????????????????????????????label={'softmax_label':label},???????????????????????????????batch_size=8,???????????????????????????????shuffle=True)print(train_data.provide_data)print(train_data.provide_label)mod?=?mx.mod.Module(symbol=sym,context=mx.gpu(0))logger?=?logging.getLogger()logger.setLevel(logging.INFO)mod.fit(train_data=train_data,?num_epoch=5)as?mx
    import?logging

    data?=?mx.sym.Variable('data')
    conv?=?mx.sym.Convolution(data=data,?num_filter=128,?kernel=(3,3),?pad=(1,1),
    ??????????????????????????name='conv1')
    bn?=?mx.sym.BatchNorm(data=conv,?name='bn1')
    relu?=?mx.sym.Activation(data=bn,?act_type='relu',?name='relu1')
    pool?=?mx.sym.Pooling(data=relu,?kernel=(2,2),?stride=(2,2),?pool_type='max',
    ??????????????????????name='pool1')
    fc?=?mx.sym.FullyConnected(data=pool,?num_hidden=2,?name='fc1')
    sym?=?mx.sym.SoftmaxOutput(data=fc,?name='softmax')

    data?=?mx.nd.random.uniform(0,1,shape=(1000,3,224,224))
    label?=?mx.nd.round(mx.nd.random.uniform(0,1,shape=(1000)))
    train_data?=?mx.io.NDArrayIter(data={'data':data},
    ???????????????????????????????label={'softmax_label':label},
    ???????????????????????????????batch_size=8,
    ???????????????????????????????shuffle=True)

    print(train_data.provide_data)
    print(train_data.provide_label)
    mod?=?mx.mod.Module(symbol=sym,context=mx.gpu(0))

    logger?=?logging.getLogger()
    logger.setLevel(logging.INFO)
    mod.fit(train_data=train_data,?num_epoch=5)


    從下面打印出來的訓練結果可以看到,輸出結果與代碼清單3-1的輸出結果基本吻合:


    INFO:root:Epoch[0]?Train-accuracy=0.515000INFO:root:Epoch[0]?Time?cost=4.618INFO:root:Epoch[1]?Train-accuracy=0.700000INFO:root:Epoch[1]?Time?cost=4.425INFO:root:Epoch[2]?Train-accuracy=0.969000INFO:root:Epoch[2]?Time?cost=4.428INFO:root:Epoch[3]?Train-accuracy=0.988000INFO:root:Epoch[3]?Time?cost=4.410INFO:root:Epoch[4]?Train-accuracy=0.999000INFO:root:Epoch[4]?Time?cost=4.4250.515000
    INFO:root:Epoch[0]?Time?cost=4.618
    INFO:root:Epoch[1]?Train-accuracy=0.700000
    INFO:root:Epoch[1]?Time?cost=4.425
    INFO:root:Epoch[2]?Train-accuracy=0.969000
    INFO:root:Epoch[2]?Time?cost=4.428
    INFO:root:Epoch[3]?Train-accuracy=0.988000
    INFO:root:Epoch[3]?Time?cost=4.410
    INFO:root:Epoch[4]?Train-accuracy=0.999000
    INFO:root:Epoch[4]?Time?cost=4.425


    上面的演示代碼中只設定了fit()方法的幾個輸入,其實fit()方法的輸入還有很多,實際使用中可根據具體要求設定不同的輸入參數,本書后面的章節還會進行詳細介紹。


    得益于MXNet的靜態圖設計和對計算過程的優化,你會發現MXNet的訓練速度相較于大部分深度學習框架要快,而且顯存占用非常少!這使得你能夠在單卡或單機多卡上使用更大的batch size訓練相同的模型,這對于復雜模型的訓練非常有利,有時候甚至還會影響訓練結果。



    04 小結


    本文主要介紹了MXNet框架中最常用到的三個模塊:NDArray、Symbol和Module,對比了三者之間的聯系并通過簡單的代碼對這三個模塊的使用有了大致的認識。


    NDArray是MXNet框架中最基礎的數據結構,借鑒了NumPy中array的思想且能在GPU上運行,同時采取命令式編程的NDArray在代碼調試上非常靈活。NDArray提供了與NumPy array相似的方法及屬性,因此熟悉NumPy array的用戶應該能夠很快上手NDArray的操作,而且二者之間的轉換也非常方便。


    Symbol是MXNet框架中定義網絡結構層的接口,采取符號式編程的Symbol通過構建靜態計算圖可以大大提高模型訓練的效率。Symbol中提供了多種方法用于查看Symbol對象的信息,包括參數層、參數維度等,同時也便于用戶在設計網絡結構的過程中查漏補缺。


    此外,Symbol中的大部分網絡層接口在NDArray中都有對應的實現,因此可以通過NDArray中對應名稱的網絡層查看具體的計算過程。


    Module是MXNet框架中封裝了訓練模型所需的大部分操作的高級接口,用戶可以通過Module模塊執行bind操作、參數初始化、優化器初始化、模型的前向計算、損失函數的反向傳播、網絡參數更新、評價指標計算等,同時,Module模塊還將常用的訓練操作封裝在了fit()方法中,通過該方法,用戶可以更加方便地訓練模型,可以說是既靈活又簡便。


    關于作者:魏凱峰,資深AI算法工程師和計算機視覺工程師,在MXNet、Pytorch、深度學習相關算法等方面有深入的研究和豐富的實踐經驗,從事計算機視覺算法相關的工作,主要研究方向包括目標檢測、圖像分類、圖像對抗算法、模型加速和壓縮。

    本文摘編自MXNet深度學習實戰:計算機視覺算法實現,經出版方授權發布。


    延伸閱讀《MXNet深度學習實戰

    點擊上圖了解及購買

    轉載請聯系微信:DoctorData


    推薦語:網易資深計算機視覺算法工程師撰寫,從算法實現和框架原理2個維度詳細講解計算機視覺算法的實現和MXNet框架的使用與原理。



    據統計,99%的大咖都完成了這個神操作



    更多精彩


    在公眾號后臺對話框輸入以下關鍵詞

    查看更多優質內容!


    PPT?|?報告?|?讀書?|?書單?|?干貨?

    大數據?|?揭秘?|?Python?|?可視化

    AI?|?人工智能?|?5G?|?區塊鏈

    機器學習?|?深度學習?|?神經網絡

    1024?|?段子?|?數學?|?高考


    猜你想看


    • 手把手教你用OpenCV實現機器學習最簡單的k-NN算法(附代碼)

    • 41款實用工具,數據獲取、清洗、建模、可視化都有了

    • 你是怎樣“被平均”的?細數統計數據中的那些坑

    • 高能!8段代碼演示Numpy數據運算的神操作



    Q:?你在用哪些深度學習框架?

    歡迎留言與大家分享

    覺得不錯,請把這篇文章分享給你的朋友

    轉載 / 投稿請聯系:baiyu@hzbook.com

    更多精彩,請在后臺點擊“歷史文章”查看

    點擊閱讀原文,了解更多

    總結

    以上是生活随笔為你收集整理的深度学习高能干货:手把手教你搭建MXNet框架的全部內容,希望文章能夠幫你解決所遇到的問題。

    如果覺得生活随笔網站內容還不錯,歡迎將生活随笔推薦給好友。

    日韩精品视频在线观看网址 | 美女视频一区 | 亚洲美女视频在线观看 | 99视频国产精品免费观看 | 久草在线视频网站 | 少妇av网 | 最新91在线视频 | 久草在线这里只有精品 | 丁香婷婷综合激情五月色 | 久久精品电影院 | 2019中文字幕网站 | 久久精品—区二区三区 | 国产超碰在线观看 | 69视频网站 | 91av视屏| 在线视频免费观看 | 久久综合五月天 | 免费三及片 | av7777777| 亚洲综合狠狠干 | 久久综合九色综合97_ 久久久 | 免费日韩在线 | 欧美一区二区精品在线 | 日韩在线高清视频 | 国产精品美 | 亚洲午夜久久久久久久久电影网 | 国产精品一区在线 | 九九有精品 | 五月天婷婷免费视频 | 成人久久综合 | av手机版 | 中午字幕在线观看 | 91视频麻豆 | 欧美一区二区精美视频 | 日韩在线观看高清 | 久久精品国产精品亚洲精品 | 亚洲专区一二三 | 国产精品99精品 | 免费黄色av片 | 日韩av有码在线 | 97激情影院 | 特级毛片aaa | 国产123区在线观看 国产精品麻豆91 | 丝袜美女视频网站 | 国产黄色大片免费看 | 国产 一区二区三区 在线 | 不卡中文字幕在线 | 日本精品视频在线观看 | 操久在线| 欧美精品v国产精品v日韩精品 | 亚洲人成综合 | 日本精品久久久久影院 | 丁香花在线视频观看免费 | 狠狠干狠狠操 | 在线观看va | 人人干人人干人人干 | 欧美成年性 | 国产高清视频色在线www | 成人高清av在线 | 亚洲精品国产欧美在线观看 | 国产在线观看一 | 国产区精品视频 | 高清中文字幕av | 亚洲黄色在线观看 | 色吊丝在线永久观看最新版本 | 国产精品18久久久久久久久久久久 | av导航福利 | 一本一本久久a久久精品牛牛影视 | 免费观看成年人视频 | 国产做aⅴ在线视频播放 | 精品视频一区在线 | 最近更新好看的中文字幕 | 亚洲日本一区二区在线 | 黄色特级毛片 | 国产精品久久久久久久久久不蜜月 | 最近最新中文字幕 | 久久国色夜色精品国产 | 久久视频在线视频 | a级国产乱理伦片在线播放 久久久久国产精品一区 | 少妇bbbb搡bbbb搡bbbb | 五月开心六月婷婷 | 97超碰色偷偷 | 国产精品va在线观看入 | 99久久99久国产黄毛片 | 久久99久久久久 | 国产成人精品一二三区 | 国产精品1区 | 97精品国产97久久久久久免费 | 欧美精品亚洲精品日韩精品 | 亚洲国产美女精品久久久久∴ | 在线观看国产麻豆 | 欧美精品成人在线 | 欧美精品在线一区二区 | 久久久久亚洲最大xxxx | 久久久久成人精品免费播放动漫 | 久久国产精品免费一区 | 欧美一级高清片 | 精品免费国产一区二区三区四区 | 成人午夜网址 | 日本韩国在线不卡 | av在线观| 久久免费99精品久久久久久 | 在线电影 你懂得 | a v在线视频 | 在线成人免费电影 | 日韩在线理论 | 久草免费在线视频 | 91伊人| 国产精品11 | 在线视频观看成人 | 极品嫩模被强到高潮呻吟91 | 91系列在线观看 | 五月天综合激情网 | 91亚洲精品视频 | 久久精品视频网 | 九九热在线视频免费观看 | 欧美三级免费 | 热久久国产精品 | 91精品免费在线观看 | 91av在线不卡 | 成人在线网站观看 | 成人久久18免费网站图片 | 91亚洲精品视频 | 激情中文字幕 | 91精品国产自产在线观看永久 | 国产又黄又爽又猛视频日本 | 激情欧美日韩一区二区 | 亚洲婷婷免费 | av黄在线播放 | 成人羞羞视频在线观看免费 | 国产一线在线 | 日韩av中文在线 | 国产美女主播精品一区二区三区 | 视频一区二区视频 | 韩日视频在线 | 精品国产1区二区 | 99视频国产精品 | 91成年人网站 | 99麻豆久久久国产精品免费 | 91av在线免费播放 | 国产xx视频| 99色在线观看视频 | 91网页版在线观看 | 色婷婷亚洲综合 | 欧美日韩国产区 | 日韩二区三区在线 | 成人中文字幕av | 日韩精品中文字幕在线播放 | 亚洲精品中文在线观看 | 欧美国产精品一区二区 | av在线之家电影网站 | 亚洲精品欧美成人 | 亚洲成人资源在线观看 | 国产成人在线观看免费 | 久久久久美女 | 天天操天天色天天射 | 免费在线观看日韩欧美 | 久久电影中文字幕视频 | 亚洲综合色av| 国产精品在线看 | 激情五月婷婷综合网 | 久久精品亚洲一区二区三区观看模式 | 国产精品videossex国产高清 | 色综合久久久久综合99 | 最新av在线免费观看 | 国产在线成人 | 欧美日在线观看 | www.久久成人| 视频精品一区二区三区 | 国产精品一区一区三区 | 久艹视频免费观看 | 亚洲高清av在线 | 91精品国产自产91精品 | 中文字幕在线观看一区二区三区 | 国产精品原创av片国产免费 | 亚洲精品在 | 午夜 在线| 91丨九色丨国产女 | 久久99精品国产麻豆宅宅 | 黄网站色视频 | 国产尤物在线观看 | 十八岁以下禁止观看的1000个网站 | 日韩精品久久久久久中文字幕8 | 樱空桃av | 亚洲精品免费看 | 午夜久久久影院 | 亚洲色影爱久久精品 | 天天搞夜夜骑 | 久久久不卡影院 | 夜夜看av| 亚洲精品乱码久久久一二三 | 日韩一区二区免费视频 | 99久久日韩精品视频免费在线观看 | 激情五月婷婷综合 | 欧美尹人 | 色婷婷亚洲婷婷 | 一区二区三区观看 | av在线免费观看黄 | 亚洲精品国产精品国自 | 国产国产人免费人成免费视频 | 国产日韩欧美在线观看 | 日韩久久一区二区 | 久草在线观看资源 | 欧美综合干 | 最新91在线视频 | 丁香花在线观看免费完整版视频 | 黄色网址在线播放 | 97超碰中文 | 狠狠狠色丁香婷婷综合久久88 | 懂色av懂色av粉嫩av分享吧 | 91丨精品丨蝌蚪丨白丝jk | 国产剧情一区二区 | 99视频免费观看 | 中国成人一区 | 99夜色| 91高清完整版在线观看 | 91福利视频一区 | 在线成人观看 | 黄色网www| 午夜精品久久久久久久久久 | 在线免费亚洲 | 在线观看成人一级片 | 伊人婷婷综合 | 天天操天天草 | 免费视频99| 成人app在线播放 | 日韩黄色一级电影 | 欧美在线视频日韩 | 欧美另类高潮 | 国产黄色在线观看 | 在线色亚洲| 色五月激情五月 | 天天操天天艹 | 开心丁香婷婷深爱五月 | 久久亚洲影视 | 97看片 | 日韩欧美一二三 | 国产色在线 | 日日夜夜艹 | 丁香花中文在线免费观看 | 九九天堂| 国产精品美女在线 | 日韩高清片| 国产一区二区免费在线观看 | 日韩视频在线不卡 | 午夜.dj高清免费观看视频 | 久草资源在线观看 | a'aaa级片在线观看 | 国产91丝袜在线播放动漫 | 国产精品久久久久久久久久东京 | 亚洲色图 校园春色 | 激情欧美xxxx | av中文字幕网 | 一区二区视频播放 | 天天激情在线 | 欧美在线视频一区二区三区 | 亚洲婷久久 | 91精品国产欧美一区二区成人 | 麻豆国产网站 | 精品国产人成亚洲区 | 欧美91精品 | 人人超碰免费 | 99国产精品一区 | 色婷婷天天干 | 成人久久久久久久久久 | 国产精品美女久久 | 亚洲干视频在线观看 | 日韩有色| 成人资源网 | 在线亚洲午夜片av大片 | 国产经典三级 | 瑞典xxxx性hd极品 | 国内精品久久久久影院优 | 亚洲 欧洲 国产 日本 综合 | 中文字幕在线影视资源 | 精品一二区 | 亚洲黄a| 欧美午夜寂寞影院 | 国产玖玖精品视频 | 免费网站v | 免费91麻豆精品国产自产在线观看 | 国产欧美精品一区aⅴ影院 99视频国产精品免费观看 | 久章草在线 | 一区二区视频在线看 | 日本少妇高清做爰视频 | 99在线观看免费视频精品观看 | 欧美日韩国产一区 | 久热色超碰 | 久久精品这里热有精品 | 激情综合网天天干 | 美女在线黄| 亚洲最新av | 超碰97人| 中文字幕成人在线观看 | 最新91在线视频 | 午夜视频在线观看一区二区 | 在线探花 | 91精品一区二区三区蜜臀 | 在线免费精品视频 | 天天爽综合网 | 成人精品一区二区三区中文字幕 | 91九色蝌蚪视频网站 | 久久er99热精品一区二区 | 国产又粗又硬又爽视频 | 超碰97中文 | 操老逼免费视频 | 国内精品视频一区二区三区八戒 | 日韩一二三区不卡 | 国产色在线,com | 亚洲国产精品电影在线观看 | 黄色软件网站在线观看 | 97在线影视| 91探花在线视频 | 天天爽夜夜爽人人爽一区二区 | 日韩免费一级电影 | 99视频在线免费观看 | 午夜精品一区二区三区在线观看 | 午夜精品一区二区三区四区 | 一区在线电影 | 操操爽| 狠狠色狠狠色合久久伊人 | 婷婷色综合色 | 中文理论片 | 精品久久久久久久久中文字幕 | 97超碰色 | 亚洲成年人免费网站 | 久久国产视屏 | 国产日韩高清在线 | 97香蕉视频| 欧美a免费| 日本精品久久久一区二区三区 | 日韩欧美在线观看一区二区三区 | av中文字幕网站 | 国产精品一区二区在线免费观看 | 天堂在线视频中文网 | 欧美精品九九99久久 | 成人毛片网 | 久久污视频 | 久久久激情网 | 日韩资源在线播放 | 久久深夜福利免费观看 | 91女子私密保健养生少妇 | 91欧美国产 | 国产亚洲精品久久久久久移动网络 | 91精品人成在线观看 | 日韩美一区二区三区 | 亚洲精品合集 | av色网站 | 91人人爱| 天堂av中文字幕 | 国产一级做a爱片久久毛片a | 久久国内视频 | 欧美二区三区91 | 久久成人麻豆午夜电影 | 天天爱天天射 | 成人黄在线观看 | 国产精品久久久久久久久免费看 | 全久久久久久久久久久电影 | 成人免费视频a | 欧美日韩一区二区免费在线观看 | 亚洲国产精品人久久电影 | 888av | 天天玩天天干 | 最新av免费| 亚洲精品视频在线免费播放 | 欧美精品久久久久久久久久丰满 | 日韩在观看线 | 色黄久久久久久 | 亚洲综合激情小说 | 天天操夜夜拍 | 欧美一区二区三区在线看 | 国产91精品久久久久久 | 福利一区二区三区四区 | 中文在线天堂资源 | 成人久久免费 | 成人av网站在线播放 | 视频成人永久免费视频 | 狠狠狠狠狠狠天天爱 | 日韩精品一区二区在线视频 | 天堂久久电影网 | 日韩三级免费 | 久青草视频在线观看 | 天天射射天天 | 欧美日本日韩aⅴ在线视频 插插插色综合 | 国产精品99久久久久久小说 | 日韩在线高清免费视频 | 韩国三级av在线 | 天天人人 | 一区精品久久 | 国产精品日韩久久久久 | 国内免费久久久久久久久久久 | 久久国产视频网 | 国产一区二区精品91 | 91福利小视频 | av在线之家电影网站 | a v在线观看 | 黄色大片视频网站 | 亚洲国产日本 | 99免费在线视频观看 | 亚洲精品乱码久久久久久 | 国产精品自产拍在线观看 | 精品久久久久久国产 | 国产精品一区二区三区四 | 久久国产成人午夜av影院宅 | 亚洲精品一区二区网址 | 波多野结衣视频一区 | 亚洲精品av中文字幕在线在线 | 中文字幕在线播放第一页 | 日日综合 | 婷婷激情综合网 | 日韩av中文在线 | 91精品国产亚洲 | 成 人 黄 色视频免费播放 | 国产亚洲精品女人久久久久久 | 国产女做a爱免费视频 | 精品久久久久久久久久岛国gif | 九九在线高清精品视频 | www天天操| 日韩高清久久 | 免费看片色 | www欧美色| www.久久99 | 一区二区三区四区在线免费观看 | 久久96国产精品久久99漫画 | 午夜影院一级片 | 欧美一级在线看 | 激情网色 | 又污又黄的网站 | 一区二区三区观看 | www.神马久久 | 最近更新好看的中文字幕 | 国产成人a亚洲精品 | 波多野结衣视频一区 | 亚洲v精品 | 国内精品在线看 | 日日爽夜夜操 | 成人宗合网 | 亚洲欧洲国产精品 | 国产精品欧美日韩 | 国产一区二区久久久 | 狠狠地操 | 综合网天天色 | 中文字幕在线资源 | 国产午夜精品一区二区三区嫩草 | 精品国产一区二区三区免费 | 黄色大片日本免费大片 | 精品在线视频播放 | 欧美日韩精品免费观看视频 | 久久亚洲热 | 亚洲精品国产精品99久久 | 国产精品扒开做爽爽的视频 | 在线免费高清一区二区三区 | 久久久久久久久久久高潮一区二区 | 亚洲日本黄色 | 国产成人一二三 | 日韩高清在线不卡 | 日韩一级理论片 | 午夜国产福利在线 | 伊人网站 | 婷婷av资源 | 成人在线观看你懂的 | 国产免费黄视频在线观看 | 五月婷婷操 | 亚洲一级黄色 | 四虎4hu永久免费 | 高清有码中文字幕 | 国内精品久久久久影院一蜜桃 | 偷拍精偷拍精品欧洲亚洲网站 | av看片在线观看 | 国产精品女人久久久 | 国产男女爽爽爽免费视频 | 日韩中文字幕91 | 国产精品精品久久久久久 | 激情丁香婷婷 | 欧美午夜精品久久久久久孕妇 | 最新中文字幕在线观看视频 | 不卡的av在线 | 国产精品不卡在线播放 | 久久日韩精品 | 91精品国产综合久久婷婷香蕉 | 99精品视频精品精品视频 | 国产福利网站 | 日本免费久久高清视频 | 欧美精品三级 | www好男人 | 最新国产精品久久精品 | 国产精品久久久久久久久久久久 | 中文不卡视频在线 | 精品美女视频 | 免费国产视频 | 丁香视频全集免费观看 | 国产乱对白刺激视频在线观看女王 | 91精品在线观看入口 | 日韩视频免费在线 | 美女免费视频黄 | 日韩av福利在线 | 国产成人精品一区二区在线观看 | 国产成人免费观看久久久 | 国产97碰免费视频 | 69久久夜色精品国产69 | 国产精品久久一 | 国色天香第二季 | 九九视频在线播放 | 久久久久99精品国产片 | 天天干天天干 | 伊人激情综合 | 成人av.com | 911亚洲精品第一 | 99 国产精品| a级片网站 | 国产精品视频永久免费播放 | 亚洲欧美乱综合图片区小说区 | 精品欧美乱码久久久久久 | 国产精品一级视频 | 91成人短视频在线观看 | 婷婷丁香综合 | 中文字幕在线观看免费观看 | 成全免费观看视频 | 久热免费在线观看 | 久草视频免费 | 天天操狠狠操网站 | 91中文字幕在线播放 | 天天综合天天做天天综合 | 久久精品99北条麻妃 | 久久免费播放视频 | 国偷自产中文字幕亚洲手机在线 | 最新日韩视频 | 国产精品剧情 | 中文在线8新资源库 | 国产色影院 | 久草在线免费资源站 | 亚洲精品国产第一综合99久久 | 久久久不卡影院 | 人人爽久久久噜噜噜电影 | 亚洲成av人片 | 日韩在线观看你懂得 | 粉嫩av一区二区三区四区在线观看 | 99精品国产福利在线观看免费 | 久久久九色精品国产一区二区三区 | 精品免费观看视频 | 欧美三级高清 | 一级片视频免费观看 | 国产成人三级在线播放 | 手机在线中文字幕 | 7777精品伊人久久久大香线蕉 | 亚洲精品国精品久久99热 | 国产视频日本 | 精品久久视频 | 激情丁香婷婷 | 亚洲成aⅴ人在线观看 | 亚洲欧美成人网 | 午夜精品电影 | 一区二区欧美日韩 | 国产我不卡 | 久久精品牌麻豆国产大山 | 精品国产电影一区 | 成人在线视频观看 | 成人在线视频你懂的 | av资源在线看 | 在线观看av中文字幕 | 999色视频| 青草草在线视频 | 日韩欧美大片免费观看 | 四虎最新域名 | 亚洲天天摸日日摸天天欢 | 日日夜夜艹 | 国内久久精品视频 | 久久久久久久久久久久av | 亚洲成人网在线 | 免费在线观看视频a | 在线成人性视频 | 天天爽夜夜爽人人爽一区二区 | 国产免费片 | 国内精自线一二区永久 | 久久久精品 一区二区三区 国产99视频在线观看 | 丁香导航 | 国产精品3| 最新不卡av| www.伊人网 | 久久综合色婷婷 | av在线免费观看网站 | 99精品久久久 | 18女毛片| 中字幕视频在线永久在线观看免费 | 九九免费在线视频 | 免费成人在线电影 | 日韩a级黄色片 | 成人国产精品免费 | 亚洲视频一区二区三区在线观看 | 亚洲欧美视频一区二区三区 | 91精品推荐 | 色网站在线免费观看 | 久久国产乱 | 日韩免费视频一区二区 | 91c网站色版视频 | 91成人在线网站 | 在线亚洲观看 | 色操插| 久久黄色免费观看 | 一区二区三区在线观看免费视频 | av福利第一导航 | 人人射人人 | 婷婷中文在线 | 99视频黄 | 97精品国产97久久久久久免费 | 日韩精品一区二区在线视频 | 日韩免费福利 | 天天色综合三 | 欧美日韩高清在线 | 91尤物国产尤物福利在线播放 | 日韩二区在线观看 | 麻豆传媒在线免费看 | 国产精国产精品 | 婷婷综合成人 | 一区二区三区电影 | 91片黄在线观看 | 综合国产在线观看 | 91在线观| 中文视频在线看 | 一级α片免费看 | 麻豆久久久久 | 97超视频在线观看 | 日日弄天天弄美女bbbb | 亚洲三级视频 | 日日操天天操狠狠操 | 亚洲国产美女精品久久久久∴ | 日韩精品高清不卡 | 中文字幕色网站 | 天海冀一区二区三区 | 国产精品2区 | 中文字幕在线观看国产 | 国产不卡在线视频 | 免费看网站在线 | 日韩在观看线 | 久久免费视频这里只有精品 | 在线观看日韩免费视频 | 亚洲午夜久久久久久久久 | 韩国一区二区在线观看 | 91夫妻自拍 | 日韩亚洲欧美中文字幕 | 青草草在线 | 国产精品美女久久久久久网站 | 国产精品免费观看国产网曝瓜 | 国产成人在线观看免费 | 国产精品白浆视频 | 99久久激情| 亚洲成人中文在线 | 欧美日韩精品二区第二页 | 国产偷在线| 中文亚洲欧美日韩 | 亚洲国产精品一区二区久久hs | 最近中文字幕视频完整版 | 欧美大jb| 久久久香蕉视频 | 成人理论电影 | 97成人精品视频在线播放 | 日韩精品在线视频免费观看 | 99久高清在线观看视频99精品热在线观看视频 | 色综合久久久久综合体桃花网 | 黄污网| 国产69精品久久久久9999apgf | 精品国产乱码 | 久久综合免费 | 国产麻豆精品久久 | 中文字幕在线视频精品 | 免费看的毛片 | 在线观看黄色小视频 | 免费av看片| 中文视频在线看 | 激情五月在线 | 亚洲欧洲久久久 | 五月婷婷丁香激情 | 在线免费高清一区二区三区 | 久草视频网 | 香蕉视频在线免费 | 国产在线精品区 | 丁香婷婷综合激情 | 国产欧美最新羞羞视频在线观看 | 91视频高清免费 | 欧美成人黄色 | 视频精品一区二区三区 | 精品国产一区二区三区久久久蜜臀 | 午夜成人免费影院 | 国产精品一区在线 | 99视频网站 | 成人亚洲网 | 成人免费av电影 | 人人看人人草 | 久久成人毛片 | 天天干天天插伊人网 | 一级黄色片在线播放 | 精品国产免费看 | 五月婷婷综合在线视频 | 日韩久久精品一区二区 | 日本中文字幕在线播放 | 麻豆视频在线看 | 国产精品久久久久久久免费 | 怡红院av久久久久久久 | 成人黄色免费观看 | 久久影视一区 | 国产主播大尺度精品福利免费 | 日本黄色免费观看 | 日韩高清国产精品 | 97日日 | 国产成人久 | 欧美精品免费一区二区 | 久久久国产一区二区 | 日韩欧美专区 | 8x8x在线观看视频 | 日韩精品一区二区在线观看 | 久久九九网站 | 91在线看黄 | 视频在线观看日韩 | 91女神的呻吟细腰翘臀美女 | 激情五月在线观看 | 91视频在线国产 | 四虎影视成人永久免费观看亚洲欧美 | 久久久久久美女 | 中文视频在线看 | 亚洲欧美婷婷六月色综合 | 色婷婷97 | 久一在线 | 婷婷精品视频 | 欧美 另类 交 | 欧美日韩视频网站 | 久久人人爽人人片av | 欧美一级电影在线观看 | 91视频 - v11av| 久久精品视频在线看 | 欧美亚洲国产一卡 | 国产99久久久国产精品免费二区 | 免费视频一二三区 | 天天操天天干天天爱 | 日韩中文字幕免费视频 | 日韩av看片 | 日韩欧美在线影院 | 日本中文字幕在线观看 | 久久久精品国产一区二区 | 色综合天天综合 | 99久久婷婷国产精品综合 | 中文字幕在线免费97 | 日韩高清成人 | 日韩 国产 | 成人黄色大片 | 黄污网站在线 | 香蕉视频在线免费看 | 综合网色 | 国外成人在线视频网站 | 免费中文字幕在线观看 | 丁香激情综合国产 | 日本免费久久高清视频 | 国产高清无线码2021 | 天天操天天色天天射 | 日本黄色免费看 | 久久成人亚洲欧美电影 | 色婷婷亚洲 | 免费在线观看成人小视频 | 欧美激情第八页 | 高清一区二区三区 | 亚洲日本va午夜在线电影 | 欧美精品久久久久 | 永久免费毛片在线观看 | 99久久久国产免费 | 日韩视频在线观看免费 | 国产色女人 | 在线观看电影av | 黄色免费电影网站 | 青青河边草免费观看 | 日韩激情视频 | 婷婷在线播放 | 2018亚洲男人天堂 | 免费看片亚洲 | 亚洲一区二区三区在线看 | 黄色小网站在线 | 日韩精品一区二区电影 | 色黄久久久久久 | www天天干| 亚洲h色精品 | 三级免费黄 | 日韩精品一区二区三区在线播放 | 97操操操 | 亚洲综合视频在线播放 | 亚洲综合色站 | 日日夜夜草| 日本中文乱码卡一卡二新区 | 色婷婷av一区二 | 亚洲欧洲精品一区二区精品久久久 | 国产高清免费在线观看 | 亚洲视频精品 | 狠狠色狠狠色合久久伊人 | 人人舔人人干 | 三级黄免费看 | 黄色av网站在线免费观看 | 天天操天天操天天操天天操 | 日韩精品不卡在线观看 | 久久久久久国产精品 | av网站手机在线观看 | 在线免费观看黄网站 | 国产美女视频网站 | 97精品国自产拍在线观看 | 日本一区二区三区免费观看 | 亚洲日韩欧美一区二区在线 | 日日夜夜狠狠干 | 欧美激情精品久久久久久 | 久久久久久久av麻豆果冻 | 亚洲在线网址 | 亚洲精品字幕在线观看 | 又黄又爽又无遮挡免费的网站 | 欧美一级性生活片 | 久久久www成人免费毛片麻豆 | 天天爽夜夜爽人人爽曰av | 亚洲人成人在线 | 国产精品视频全国免费观看 | 毛片一区二区 | 精品国产一区二区三区久久久久久 | av在线网站大全 | 视频 天天草 | 蜜臀av麻豆 | 欧美综合在线视频 | 亚洲韩国一区二区三区 | 水蜜桃亚洲一二三四在线 | 精品久久久久久久久久久久 | 免费看黄的视频 | 经典三级一区 | 久久久久久免费毛片精品 | 欧美特一级 | 中文字幕一区二区三区四区久久 | 国产精品久久久久一区 | 国产又粗又长又硬免费视频 | 久久免费成人精品视频 | 国产成人一二片 | 日本精品午夜 | 国产日韩三级 | 久草精品视频在线看网站免费 | 国产精品区免费视频 | 久久一区二区三区国产精品 | 欧美aa级| 99精品乱码国产在线观看 | 天天色天天爱天天射综合 | 国产午夜不卡 | 九九国产精品视频 | 激情视频免费在线观看 | 亚洲国产成人精品在线观看 | 黄影院 | 国产三级av在线 | 麻豆视传媒官网免费观看 | 中文字幕中文字幕在线一区 | 狠狠躁日日躁狂躁夜夜躁 | 精品一区二区免费在线观看 | av在线免费在线观看 | 国内成人综合 | 日韩免费高清在线观看 | 国产成人精品综合久久久 | 久久久精品午夜 | 日韩高清av在线 | 国产精品久久久久av免费 | 成人免费看片98欧美 | 国产黄色片网站 | 精品久久亚洲 | 黄色片免费电影 | 中文字幕一区二区三区在线视频 | 精品国产伦一区二区三区观看体验 | 欧美91成人网 | 国产精品免费观看视频 | 日韩视频一| 狠日日 | 中文视频在线播放 | 韩国三级在线一区 | 婷婷草| 欧美二区视频 | 免费在线观看污 | 亚州国产精品久久久 | 久草视频免费看 | 国产 亚洲 欧美 在线 | 六月丁香激情综合色啪小说 | 日韩r级电影在线观看 | 中文字幕在线观看视频一区 | 97在线视| 视频一区二区三区视频 | 国产精品女视频 | 国产999视频在线观看 | 久草国产视频 | 亚洲最大av在线播放 | 欧美日韩视频在线播放 | 国内精品视频久久 | 久久福利精品 | 国产99免费视频 | 日韩av网站在线播放 | 久久久久久久久爱 | 少妇搡bbbb搡bbb搡忠贞 | 日批网站免费观看 | 久久色在线播放 | 久久久久久久久久久福利 | 国产视频黄 | 国产91aaa | 久久高清精品 | 久久视频网址 | 五月婷婷播播 | 国产亚洲高清视频 | 国产91精品在线观看 | 国产香蕉视频 | 成人午夜电影在线观看 | 久久99婷婷 | 在线亚洲日本 | 麻花豆传媒mv在线观看 | 国产在线色站 | 国产高清专区 | 久久资源总站 | 91亚洲精品在线 | 天天操天天拍 | 在线观看一级片 | 中文字幕av在线电影 | 五月综合久久 | 99成人在线视频 | 久久激情小视频 | 色综合久久久久综合 | 九九热精品国产 | 免费日韩电影 | 中文在线中文a | 久久久久综合网 | 久爱精品在线 | 九热精品| 国产成在线观看免费视频 | 国产一区二区电影在线观看 | 91三级在线观看 | 亚洲精品456在线播放 | 国产999| 91国内在线视频 | 国产一区二区高清不卡 | 81国产精品久久久久久久久久 | 久久66热这里只有精品 | 中文字幕视频 | 精品免费一区二区三区 | 精品视频一区在线 | 日韩激情第一页 | av三区在线 | 精品中文字幕在线观看 | 天天做天天干 | 久久国产精品99国产 | 国产精品黄色 | 在线亚洲高清视频 | 自拍超碰在线 | 天天色综合久久 | 欧美日韩国产一区二区三区在线观看 | 日韩激情视频在线 | 国产精品永久在线 | 亚洲欧美国产精品 | 最新99热| 久草在线视频资源 | 国产精品刺激对白麻豆99 | 久久婷婷影视 | 亚洲精品午夜久久久久久久 | 国产一级黄大片 | 日本亚洲国产 | 91系列在线| 久久免费黄色 | 伊人永久在线 | 精品国内 | 色国产精品一区在线观看 | 久久黄色免费视频 | 亚洲播播 | 婷婷久久婷婷 | 午夜男人影院 | wwwwww黄 | 精品在线你懂的 | 久久精品一区二区三区中文字幕 | 国产粉嫩在线观看 | 在线三级播放 | 日韩视频精品在线 | 97精品国产一二三产区 | 国产精品18久久久久久久网站 | 涩涩网站在线看 | 亚洲精品乱码白浆高清久久久久久 | 免费观看国产视频 | 看片网站黄 | 成人av高清在线 | 久久久久综合视频 | 国产黄色精品视频 | 欧美成人tv | 国产成人精品久久亚洲高清不卡 | 欧美精品久久久久久久久久久 | 亚洲精品乱码久久久久久按摩 | 激情综合色图 | 成人在线视频你懂的 | 园产精品久久久久久久7电影 | 欧美日本国产在线观看 | 久久精品艹 | 国产视频18 | 一区二区三区高清在线观看 | 国产精品久久久久久久午夜 | 伊香蕉大综综综合久久啪 | 国产第一页在线观看 | 成人在线免费观看网站 | 亚洲国产欧洲综合997久久, | 欧美色伊人 | 久久精品国产一区 | 天天干 天天摸 天天操 | 国产成人免费在线 |