日韩av黄I国产麻豆传媒I国产91av视频在线观看I日韩一区二区三区在线看I美女国产在线I麻豆视频国产在线观看I成人黄色短片

歡迎訪問 生活随笔!

生活随笔

當(dāng)前位置: 首頁(yè) > 人工智能 > 卷积神经网络 >内容正文

卷积神经网络

深度学习(四)卷积神经网络Lenet-5实现

發(fā)布時(shí)間:2025/3/21 卷积神经网络 73 豆豆
生活随笔 收集整理的這篇文章主要介紹了 深度学习(四)卷积神经网络Lenet-5实现 小編覺得挺不錯(cuò)的,現(xiàn)在分享給大家,幫大家做個(gè)參考.

卷積神經(jīng)網(wǎng)絡(luò)Lenet-5實(shí)現(xiàn)

原文地址http://blog.csdn.net/hjimce/article/details/47323463

作者:hjimce

卷積神經(jīng)網(wǎng)絡(luò)算法是n年前就有的算法,只是近年來因?yàn)樯疃葘W(xué)習(xí)相關(guān)算法為多層網(wǎng)絡(luò)的訓(xùn)練提供了新方法,然后現(xiàn)在電腦的計(jì)算能力已非當(dāng)年的那種計(jì)算水平,同時(shí)現(xiàn)在的訓(xùn)練數(shù)據(jù)很多,于是神經(jīng)網(wǎng)絡(luò)的相關(guān)算法又重新火了起來因此卷積神經(jīng)網(wǎng)絡(luò)就又活了起來,再開始前,我們需要明確的是網(wǎng)上講的卷積神經(jīng)網(wǎng)絡(luò)的相關(guān)教程一般指的是神經(jīng)網(wǎng)絡(luò)的前向傳導(dǎo)過程,反向傳播都是用梯度下降法進(jìn)行訓(xùn)練。

一、理論階段

講解這個(gè)算法,沒有打算啰嗦太多的東西,因?yàn)槭裁礄?quán)值共享、局部感受野什么的,講那么多,都是那些生物學(xué)的相關(guān)理論。卷積神經(jīng)網(wǎng)絡(luò)的相關(guān)博文也是一大堆,但是講的,基本上都是抄過來抄過去,就像我之前不理解從S2層到C3層是怎么實(shí)現(xiàn)的,網(wǎng)上看了一大堆教程,沒有一個(gè)解答這個(gè)問題的。我的個(gè)人感覺整個(gè)過程,就只有S2到C3是最難理解的。接著我將結(jié)合我的理解進(jìn)行講解。

1、卷積

卷積的概念這個(gè)我想只要學(xué)過圖像處理的人都懂的概念了,這個(gè)不解釋。我們知道對(duì)于給定的一幅圖像來說,給定一個(gè)卷積核,卷積就是根據(jù)卷積窗口,進(jìn)行像素的加權(quán)求和。


卷積神經(jīng)網(wǎng)絡(luò)與我們之前所學(xué)到的圖像的卷積的區(qū)別,我的理解是:我們之前學(xué)圖像處理遇到卷積,一般來說,這個(gè)卷積核是已知的,比如各種邊緣檢測(cè)算子、高斯模糊等這些,都是已經(jīng)知道卷積核,然后再與圖像進(jìn)行卷積運(yùn)算。然而深度學(xué)習(xí)中的卷積神經(jīng)網(wǎng)絡(luò)卷積核是未知的,我們訓(xùn)練一個(gè)神經(jīng)網(wǎng)絡(luò),就是要訓(xùn)練得出這些卷積核,而這些卷積核就相當(dāng)于我們學(xué)單層感知器的時(shí)候的那些參數(shù)W,因此你可以把這些待學(xué)習(xí)的卷積核看成是神經(jīng)網(wǎng)絡(luò)的訓(xùn)練參數(shù)W。

2、池化

剛開始學(xué)習(xí)CNN的時(shí)候,看到這個(gè)詞,好像高大上的樣子,于是查了很多資料,理論一大堆,但是實(shí)踐、算法實(shí)現(xiàn)卻都沒講到,也不懂池化要怎么實(shí)現(xiàn)?其實(shí)所謂的池化,就是圖片下采樣。這個(gè)時(shí)候,你會(huì)發(fā)現(xiàn)CNN每一層的構(gòu)建跟圖像高斯金字塔的構(gòu)建有點(diǎn)類似,因此你如果已經(jīng)懂得了圖像金字塔融合的相關(guān)算法,那么就變的容易理解了。在高斯金子塔構(gòu)建中,每一層通過卷積,然后卷積后進(jìn)行下采樣,而CNN也是同樣的過程。廢話不多說,這里就講一下,CNN的池化:

CNN的池化(圖像下采樣)方法很多:Mean pooling(均值采樣)、Max pooling(最大值采樣)、Overlapping (重疊采樣)、L2 pooling(均方采樣)、Local Contrast Normalization(歸一化采樣)、Stochasticpooling(隨即采樣)、Def-pooling(形變約束采樣)。其中最經(jīng)典的是最大池化,因此我就解釋一下最大池化的實(shí)現(xiàn):


原圖片

為了簡(jiǎn)單起見,我用上面的圖片作為例子,假設(shè)上面的圖片大小是4*4的,如上圖所示,然后圖片中每個(gè)像素點(diǎn)的值是上面各個(gè)格子中的數(shù)值。然后我要對(duì)這張4*4的圖片進(jìn)行池化,池化的大小為(2,2),跨步為2,那么采用最大池化也就是對(duì)上面4*4的圖片進(jìn)行分塊,每個(gè)塊的大小為2*2,然后統(tǒng)計(jì)每個(gè)塊的最大值,作為下采樣后圖片的像素值,具體計(jì)算如下圖所示:


也就是說我們最后得到下采樣后的圖片為:


這就是所謂的最大池化。當(dāng)然以后你還會(huì)遇到各種池化方法,比如均值池化,也就是對(duì)每個(gè)塊求取平均值作為下采樣的新像素值。還有重疊采樣的池化,我上面這個(gè)例子是沒有重疊的采樣的,也就是每個(gè)塊之間沒有相互重疊的部分,上面我說的跨步為2,就是為了使得分塊都非重疊,等等,這些以后再跟大家解釋池化常用方法。這里就先記住最大池化就好了,因?yàn)檫@個(gè)目前是最常用的。

3、feature maps?

這個(gè)單詞國(guó)人把它翻譯成特征圖,挺起來很專業(yè)的名詞。那么什么叫特征圖呢?其實(shí)一張圖片經(jīng)過一個(gè)卷積核進(jìn)行卷積運(yùn)算,我們可以得到一張卷積后的結(jié)果圖片,而這張圖片就是特征圖。在CNN中,我們要訓(xùn)練的卷積核并不是僅僅只有一個(gè),這些卷積核用于提取特征,卷積核個(gè)數(shù)越多,提取的特征越多,理論上來說精度也會(huì)更高,然而卷積核一堆,意味著我們要訓(xùn)練的參數(shù)的個(gè)數(shù)越多。在LeNet-5經(jīng)典結(jié)構(gòu)中,第一層卷積核選擇了6個(gè),而在AlexNet中,第一層卷積核就選擇了96個(gè),具體多少個(gè)合適,還有待學(xué)習(xí)。

回到特征圖概念,CNN的每一個(gè)卷積層我們都要人為的選取合適的卷積核個(gè)數(shù),及卷積核大小。每個(gè)卷積核與圖片進(jìn)行卷積,就可以得到一張?zhí)卣鲌D了,比如LeNet-5經(jīng)典結(jié)構(gòu)中,第一層卷積核選擇了6個(gè),我們可以得到6個(gè)特征圖,這些特征圖也就是下一層網(wǎng)絡(luò)的輸入了。我們也可以把輸入圖片看成一張?zhí)卣鲌D,作為第一層網(wǎng)絡(luò)的輸入。

4、CNN的經(jīng)典結(jié)構(gòu)

對(duì)于剛?cè)腴TCNN的人來說,我們首先需要現(xiàn)在的一些經(jīng)典結(jié)構(gòu):

(1)LeNet-5。這個(gè)是n多年前就有的一個(gè)CNN的經(jīng)典結(jié)構(gòu),主要是用于手寫字體的識(shí)別,也是剛?cè)腴T需要學(xué)習(xí)熟悉的一個(gè)網(wǎng)絡(luò),我的這篇博文主要就是要講這個(gè)網(wǎng)絡(luò)


(2)AlexNet。


在imagenet上的圖像分類challenge上大神Alex提出的alexnet網(wǎng)絡(luò)結(jié)構(gòu)模型贏得了2012屆的冠軍,振奮人心,利用CNN實(shí)現(xiàn)了圖片分類,別人用傳統(tǒng)的神經(jīng)網(wǎng)絡(luò)調(diào)參跳到半死也就那樣,Alex利用CNN精度遠(yuǎn)超傳統(tǒng)的網(wǎng)絡(luò)。

其它的還有什么《Network In Network》,GoogLeNet、Deconvolution Network,在以后的學(xué)習(xí)中我們會(huì)遇到。比如利用Deconvolution Network反卷積網(wǎng)絡(luò)實(shí)現(xiàn)圖片的去模糊,牛逼哄哄。

? ? OK,理論階段就啰嗦到這里就好了,接著就講解?LeNet-5,?LeNet-5是用于手寫字體的識(shí)別的一個(gè)經(jīng)典CNN:


LeNet-5結(jié)構(gòu)

輸入:32*32的手寫字體圖片,這些手寫字體包含0~9數(shù)字,也就是相當(dāng)于10個(gè)類別的圖片

輸出:分類結(jié)果,0~9之間的一個(gè)數(shù)

因此我們可以知道,這是一個(gè)多分類問題,總共有十個(gè)類,因此神經(jīng)網(wǎng)絡(luò)的最后輸出層必然是SoftMax問題,然后神經(jīng)元的個(gè)數(shù)是10個(gè)。LeNet-5結(jié)構(gòu):

輸入層:32*32的圖片,也就是相當(dāng)于1024個(gè)神經(jīng)元

C1層:paper作者,選擇6個(gè)特征卷積核,然后卷積核大小選擇5*5,這樣我們可以得到6個(gè)特征圖,然后每個(gè)特征圖的大小為32-5+1=28,也就是神經(jīng)元的個(gè)數(shù)由1024減小到了28*28=784。

S2層:這就是下采樣層,也就是使用最大池化進(jìn)行下采樣,池化的size,選擇(2,2),也就是相當(dāng)于對(duì)C1層28*28的圖片,進(jìn)行分塊,每個(gè)塊的大小為2*2,這樣我們可以得到14*14個(gè)塊,然后我們統(tǒng)計(jì)每個(gè)塊中,最大的值作為下采樣的新像素,因此我們可以得到S1結(jié)果為:14*14大小的圖片,共有6個(gè)這樣的圖片。

C3層:卷積層,這一層我們選擇卷積核的大小依舊為5*5,據(jù)此我們可以得到新的圖片大小為14-5+1=10,然后我們希望可以得到16張?zhí)卣鲌D。那么問題來了?這一層是最難理解的,我們知道S2包含:6張14*14大小的圖片,我們希望這一層得到的結(jié)果是:16張10*10的圖片。這16張圖片的每一張,是通過S2的6張圖片進(jìn)行加權(quán)組合得到的,具體是怎么組合的呢?問題如下圖所示:


為了解釋這個(gè)問題,我們先從簡(jiǎn)單的開始,我現(xiàn)在假設(shè)輸入6特征圖的大小是5*5的,分別用6個(gè)5*5的卷積核進(jìn)行卷積,得到6個(gè)卷積結(jié)果圖片大小為1*1,如下圖所示:


? ? 為了簡(jiǎn)便起見,我這里先做一些標(biāo)號(hào)的定義:我們假設(shè)輸入第i個(gè)特征圖的各個(gè)像素值為x1i,x2i……x25i,因?yàn)槊總€(gè)特征圖有25個(gè)像素。因此第I個(gè)特征圖經(jīng)過5*5的圖片卷積后,得到的卷積結(jié)果圖片的像素值Pi可以表示成:


這個(gè)是卷積公式,不解釋。因此對(duì)于上面的P1~P6的計(jì)算方法,這個(gè)就是直接根據(jù)公式。然后我們把P1~P6相加起來,也就是:

P=P1+P2+……P6

把上面的Pi的計(jì)算公式,代入上式,那么我們可以得到:

P=WX

其中X就是輸入的那6張5*5特征圖片的各個(gè)像素點(diǎn)值,而W就是我們需要學(xué)習(xí)的參數(shù),也就相當(dāng)于6個(gè)5*5的卷積核,當(dāng)然它包含著6*(5*5)個(gè)參數(shù)。因此我們的輸出特征圖就是:

Out=f(P+b)

這個(gè)就是從S2到C3的計(jì)算方法,其中b表示偏置項(xiàng),f為激活函數(shù)。

我們回歸到原來的問題:有6張輸入14*14的特征圖片,我們希望用5*5的卷積核,然后最后我們希望得到一張10*10的輸出特征圖片?

根據(jù)上面的過程,也就是其實(shí)我們用5*5的卷積核去卷積每一張輸入的特征圖,當(dāng)然每張?zhí)卣鲌D的卷積核參數(shù)是不一樣的,也就是不共享,因此我們就相當(dāng)于需要6*(5*5)個(gè)參數(shù)。對(duì)每一張輸入特征圖進(jìn)行卷積后,我們得到6張10*10,新圖片,這個(gè)時(shí)候,我們把這6張圖片相加在一起,然后加一個(gè)偏置項(xiàng)b,然后用激活函數(shù)進(jìn)行映射,就可以得到一張10*10的輸出特征圖了。

? ? 而我們希望得到16張10*10的輸出特征圖,因此我們就需要卷積參數(shù)個(gè)數(shù)為16*(6*(5*5))=16*6*(5*5)個(gè)參數(shù)。總之,C3層每個(gè)圖片是通過S2圖片進(jìn)行卷積后,然后相加,并且加上偏置b,最后在進(jìn)行激活函數(shù)映射得到的結(jié)果。

S4層:下采樣層,比較簡(jiǎn)單,也是知己對(duì)C3的16張10*10的圖片進(jìn)行最大池化,池化塊的大小為2*2。因此最后S4層為16張大小為5*5的圖片。至此我們的神經(jīng)元個(gè)數(shù)已經(jīng)減少為:16*5*5=400。

C5層:我們繼續(xù)用5*5的卷積核進(jìn)行卷積,然后我們希望得到120個(gè)特征圖。這樣C5層圖片的大小為5-5+1=1,也就是相當(dāng)于1個(gè)神經(jīng)元,120個(gè)特征圖,因此最后只剩下120個(gè)神經(jīng)元了。這個(gè)時(shí)候,神經(jīng)元的個(gè)數(shù)已經(jīng)夠少的了,后面我們就可以直接利用全連接神經(jīng)網(wǎng)絡(luò),進(jìn)行這120個(gè)神經(jīng)元的后續(xù)處理,后面具體要怎么搞,只要懂多層感知器的都懂了,不解釋。

上面的結(jié)構(gòu),只是一種參考,在現(xiàn)實(shí)使用中,每一層特征圖需要多少個(gè),卷積核大小選擇,還有池化的時(shí)候采樣率要多少,等這些都是變化的,這就是所謂的CNN調(diào)參,我們需要學(xué)會(huì)靈活多變。

比如我們可以把上面的結(jié)構(gòu)改為:C1層卷積核大小為7*7,然后把C3層卷積核大小改為3*3等,然后特征圖的個(gè)數(shù)也是自己選,說不定得到手寫字體識(shí)別的精度比上面那個(gè)還高,這也是有可能的,總之一句話:需要學(xué)會(huì)靈活多變,需要學(xué)會(huì)CNN的調(diào)參。

二、實(shí)戰(zhàn)階段

1、訓(xùn)練數(shù)據(jù)獲取

在theano學(xué)習(xí)庫(kù)中有手寫字體的庫(kù),可以從網(wǎng)上下載到,名為:mnist.pkl.gz的手寫字體庫(kù),里面包含了三個(gè)部分的數(shù)據(jù),訓(xùn)練數(shù)據(jù)集train_set:50000個(gè)訓(xùn)練樣本,驗(yàn)證集valid_set,我們可以用如下的代碼讀取這些數(shù)據(jù),然后用plot顯示其中的一張圖片:

[python]?view plaincopy
  • <span?style="font-size:18px;">import?cPickle??
  • import?gzip??
  • import?numpy?as?np??
  • import?matplotlib.pyplot?as?plt??
  • f?=?gzip.open('mnist.pkl.gz',?'rb')??
  • train_set,?valid_set,?test_set?=?cPickle.load(f)??
  • f.close()??
  • tx,ty=train_set;??
  • ??
  • #查看訓(xùn)練樣本??
  • print?np.shape(tx)#可以看到tx大小為(50000,28*28)的二維矩陣??
  • print?np.shape(ty)#可以看到ty大小為(50000,1)的矩陣??
  • #圖片顯示??
  • A=tx[8].reshape(28,28)#第八個(gè)訓(xùn)練樣本??
  • Y=ty[8]??
  • print?Y??
  • plt.imshow(A,cmap='gray')#顯示手寫字體圖片</span>??
  • 在上面的代碼中我顯示的是第8張圖片,可以看到如下結(jié)果:


    第八個(gè)樣本是數(shù)字1。

    2、LeNet-5實(shí)現(xiàn)

    首先你要知道mnist.pkl.gz這個(gè)庫(kù)給我們的圖片的大小是28*28的,因此我們可以第一步選擇5*5的卷積核進(jìn)行卷積得到24*24,同時(shí)我們希望C1層得到20張?zhí)卣鲌D,等等,具體的代碼實(shí)現(xiàn)如下;

    [python]?view plaincopy
  • import?os??
  • import?sys??
  • import?timeit??
  • ??
  • import?numpy??
  • ??
  • import?theano??
  • import?theano.tensor?as?T??
  • from?theano.tensor.signal?import?downsample??
  • from?theano.tensor.nnet?import?conv??
  • ??
  • from?logistic_sgd?import?LogisticRegression,?load_data??
  • from?mlp?import?HiddenLayer??
  • ??
  • #卷積神經(jīng)網(wǎng)絡(luò)的一層,包含:卷積+下采樣兩個(gè)步驟??
  • #算法的過程是:卷積-》下采樣-》激活函數(shù)??
  • class?LeNetConvPoolLayer(object):??
  • ??
  • ????#image_shape是輸入數(shù)據(jù)的相關(guān)參數(shù)設(shè)置??filter_shape本層的相關(guān)參數(shù)設(shè)置??
  • ????def?__init__(self,?rng,?input,?filter_shape,?image_shape,?poolsize=(2,?2)):??
  • ????????"""?
  • ????????:type?rng:?numpy.random.RandomState?
  • ????????:param?rng:?a?random?number?generator?used?to?initialize?weights?
  • ?
  • ????????3、input:?輸入特征圖數(shù)據(jù),也就是n幅特征圖片?
  • ?
  • ????????4、參數(shù)?filter_shape:?(number?of?filters,?num?input?feature?maps,?
  • ??????????????????????????????filter?height,?filter?width)?
  • ????????num?of?filters:是卷積核的個(gè)數(shù),有多少個(gè)卷積核,那么本層的out?feature?maps的個(gè)數(shù)?
  • ????????也將生成多少個(gè)。num?input?feature?maps:輸入特征圖的個(gè)數(shù)。?
  • ????????然后接著filter?height,?filter?width是卷積核的寬高,比如5*5,9*9……?
  • ????????filter_shape是列表,因此我們可以用filter_shape[0]獲取卷積核個(gè)數(shù)?
  • ?
  • ????????5、參數(shù)?image_shape:?(batch?size,?num?input?feature?maps,?
  • ?????????????????????????????image?height,?image?width),?
  • ?????????batch?size:批量訓(xùn)練樣本個(gè)數(shù)?,num?input?feature?maps:輸入特征圖的個(gè)數(shù)?
  • ?????????image?height,?image?width分別是輸入的feature?map圖片的大小。?
  • ?????????image_shape是一個(gè)列表類型,所以可以直接用索引,訪問上面的4個(gè)參數(shù),索引下標(biāo)從?
  • ?????????0~3。比如image_shape[2]=image_heigth??image_shape[3]=num?input?feature?maps?
  • ?
  • ????????6、參數(shù)?poolsize:?池化下采樣的的塊大小,一般為(2,2)?
  • ????????"""??
  • ??
  • ????????assert?image_shape[1]?==?filter_shape[1]#判斷輸入特征圖的個(gè)數(shù)是否一致,如果不一致是錯(cuò)誤的??
  • ????????self.input?=?input??
  • ??
  • ????????#?fan_in=num?input?feature?maps?*filter?height*filter?width???
  • ????????#numpy.prod(x)函數(shù)為計(jì)算x各個(gè)元素的乘積??
  • ????????#也就是說fan_in就相當(dāng)于每個(gè)即將輸出的feature??map所需要鏈接參數(shù)權(quán)值的個(gè)數(shù)??
  • ????????fan_in?=?numpy.prod(filter_shape[1:])??
  • ????????#?fan_out=num?output?feature?maps?*?filter?height?*?filter?width??
  • ????????fan_out?=?(filter_shape[0]?*?numpy.prod(filter_shape[2:])?/??
  • ???????????????????numpy.prod(poolsize))??
  • ????????#?把參數(shù)初始化到[-a,a]之間的數(shù),其中a=sqrt(6./(fan_in?+?fan_out)),然后參數(shù)采用均勻采樣??
  • ????????#權(quán)值需要多少個(gè)?卷積核個(gè)數(shù)*輸入特征圖個(gè)數(shù)*卷積核寬*卷積核高?這樣沒有包含采樣層的鏈接權(quán)值個(gè)數(shù)??
  • ????????W_bound?=?numpy.sqrt(6.?/?(fan_in?+?fan_out))??
  • ????????self.W?=?theano.shared(??
  • ????????????numpy.asarray(??
  • ????????????????rng.uniform(low=-W_bound,?high=W_bound,?size=filter_shape),??
  • ????????????????dtype=theano.config.floatX??
  • ????????????),??
  • ????????????borrow=True??
  • ????????)??
  • ??
  • ????????#?b為偏置,是一維的向量。每個(gè)輸出特征圖i對(duì)應(yīng)一個(gè)偏置參數(shù)b[i]??
  • ????????#,因此下面初始化b的個(gè)數(shù)就是特征圖的個(gè)數(shù)filter_shape[0]??
  • ????????b_values?=?numpy.zeros((filter_shape[0],),?dtype=theano.config.floatX)??
  • ????????self.b?=?theano.shared(value=b_values,?borrow=True)??
  • ??
  • ????????#?卷積層操作,函數(shù)conv.conv2d的第一個(gè)參數(shù)為輸入的特征圖,第二個(gè)參數(shù)為隨機(jī)出事化的卷積核參數(shù)??
  • ????????#第三個(gè)參數(shù)為卷積核的相關(guān)屬性,輸入特征圖的相關(guān)屬性??
  • ????????conv_out?=?conv.conv2d(??
  • ????????????input=input,??
  • ????????????filters=self.W,??
  • ????????????filter_shape=filter_shape,??
  • ????????????image_shape=image_shape??
  • ????????)??
  • ??
  • ????????#?池化操作,最大池化??
  • ????????pooled_out?=?downsample.max_pool_2d(??
  • ????????????input=conv_out,??
  • ????????????ds=poolsize,??
  • ????????????ignore_border=True??
  • ????????)??
  • ????????#激勵(lì)函數(shù),也就是說是先經(jīng)過卷積核再池化后,然后在進(jìn)行非線性映射??
  • ????????#?add?the?bias?term.?Since?the?bias?is?a?vector?(1D?array),?we?first??
  • ????????#?reshape?it?to?a?tensor?of?shape?(1,?n_filters,?1,?1).?Each?bias?will??
  • ????????#?thus?be?broadcasted?across?mini-batches?and?feature?map??
  • ????????#?width?&?height??
  • ????????self.output?=?T.tanh(pooled_out?+?self.b.dimshuffle('x',?0,?'x',?'x'))??
  • ??
  • ????????#?保存參數(shù)??
  • ????????self.params?=?[self.W,?self.b]??
  • ????????self.input?=?input??
  • ??
  • #測(cè)試函數(shù)??
  • def?evaluate_lenet5(learning_rate=0.1,?n_epochs=200,??
  • ????????????????????dataset='mnist.pkl.gz',??
  • ????????????????????nkerns=[20,?50],?batch_size=500):??
  • ????"""?Demonstrates?lenet?on?MNIST?dataset?
  • ?
  • ?
  • ????:learning_rate:?梯度下降法的學(xué)習(xí)率?
  • ?
  • ????:n_epochs:?最大迭代次數(shù)?
  • ?
  • ????:type?dataset:?string?
  • ????:param?dataset:?path?to?the?dataset?used?for?training?/testing?(MNIST?here)?
  • ?
  • ????:nkerns:?每個(gè)卷積層的卷積核個(gè)數(shù),第一層卷積核個(gè)數(shù)為?nkerns[0]=20,第二層卷積核個(gè)數(shù)?
  • ????為50個(gè)?
  • ????"""??
  • ??
  • ????rng?=?numpy.random.RandomState(23455)??
  • ??
  • ????datasets?=?load_data(dataset)#加載訓(xùn)練數(shù)據(jù),訓(xùn)練數(shù)據(jù)包含三個(gè)部分??
  • ??
  • ????train_set_x,?train_set_y?=?datasets[0]#訓(xùn)練數(shù)據(jù)??
  • ????valid_set_x,?valid_set_y?=?datasets[1]#驗(yàn)證數(shù)據(jù)??
  • ????test_set_x,?test_set_y?=?datasets[2]#測(cè)試數(shù)據(jù)??
  • ??
  • ????#?計(jì)算批量訓(xùn)練可以分多少批數(shù)據(jù)進(jìn)行訓(xùn)練,這個(gè)只要是知道批量訓(xùn)練的人都知道??
  • ????n_train_batches?=?train_set_x.get_value(borrow=True).shape[0]#訓(xùn)練數(shù)據(jù)個(gè)數(shù)??
  • ????n_valid_batches?=?valid_set_x.get_value(borrow=True).shape[0]??
  • ????n_test_batches?=?test_set_x.get_value(borrow=True).shape[0]??
  • ????n_train_batches?/=?batch_size#批數(shù)??
  • ????n_valid_batches?/=?batch_size??
  • ????n_test_batches?/=?batch_size??
  • ??
  • ????#?allocate?symbolic?variables?for?the?data??
  • ????index?=?T.lscalar()??#?index?to?a?[mini]batch??
  • ??
  • ????#?start-snippet-1??
  • ????x?=?T.matrix('x')???#?the?data?is?presented?as?rasterized?images??
  • ????y?=?T.ivector('y')??#?the?labels?are?presented?as?1D?vector?of??
  • ????????????????????????#?[int]?labels??
  • ??
  • ??
  • ????#?Reshape?matrix?of?rasterized?images?of?shape?(batch_size,?28?*?28)??
  • ????#?to?a?4D?tensor,?compatible?with?our?LeNetConvPoolLayer??
  • ????#?(28,?28)?is?the?size?of?MNIST?images.??
  • ????layer0_input?=?x.reshape((batch_size,?1,?28,?28))??
  • ??
  • ????'''''構(gòu)建第一層網(wǎng)絡(luò):?
  • ????image_shape:輸入大小為28*28的特征圖,batch_size個(gè)訓(xùn)練數(shù)據(jù),每個(gè)訓(xùn)練數(shù)據(jù)有1個(gè)特征圖?
  • ????filter_shape:卷積核個(gè)數(shù)為nkernes[0]=20,因此本層每個(gè)訓(xùn)練樣本即將生成20個(gè)特征圖?
  • ????經(jīng)過卷積操作,圖片大小變?yōu)?28-5+1?,?28-5+1)?=?(24,?24)?
  • ????經(jīng)過池化操作,圖片大小變?yōu)?(24/2,?24/2)?=?(12,?12)?
  • ????最后生成的本層image_shape為(batch_size,?nkerns[0],?12,?12)'''??
  • ????layer0?=?LeNetConvPoolLayer(??
  • ????????rng,??
  • ????????input=layer0_input,??
  • ????????image_shape=(batch_size,?1,?28,?28),??
  • ????????filter_shape=(nkerns[0],?1,?5,?5),??
  • ????????poolsize=(2,?2)??
  • ????)??
  • ??
  • ????'''''構(gòu)建第二層網(wǎng)絡(luò):輸入batch_size個(gè)訓(xùn)練圖片,經(jīng)過第一層的卷積后,每個(gè)訓(xùn)練圖片有nkernes[0]個(gè)特征圖,每個(gè)特征圖?
  • ????大小為12*12?
  • ????經(jīng)過卷積后,圖片大小變?yōu)?12-5+1,?12-5+1)?=?(8,?8)?
  • ????經(jīng)過池化后,圖片大小變?yōu)?8/2,?8/2)?=?(4,?4)?
  • ????最后生成的本層的image_shape為(batch_size,?nkerns[1],?4,?4)'''??
  • ????layer1?=?LeNetConvPoolLayer(??
  • ????????rng,??
  • ????????input=layer0.output,??
  • ????????image_shape=(batch_size,?nkerns[0],?12,?12),??
  • ????????filter_shape=(nkerns[1],?nkerns[0],?5,?5),??
  • ????????poolsize=(2,?2)??
  • ????)??
  • ??
  • ????#?the?HiddenLayer?being?fully-connected,?it?operates?on?2D?matrices?of??
  • ????#?shape?(batch_size,?num_pixels)?(i.e?matrix?of?rasterized?images).??
  • ????#?This?will?generate?a?matrix?of?shape?(batch_size,?nkerns[1]?*?4?*?4),??
  • ????#?or?(500,?50?*?4?*?4)?=?(500,?800)?with?the?default?values.??
  • ????layer2_input?=?layer1.output.flatten(2)??
  • ??
  • ????'''''全鏈接:輸入layer2_input是一個(gè)二維的矩陣,第一維表示樣本,第二維表示上面經(jīng)過卷積下采樣后?
  • ????每個(gè)樣本所得到的神經(jīng)元,也就是每個(gè)樣本的特征,HiddenLayer類是一個(gè)單層網(wǎng)絡(luò)結(jié)構(gòu)?
  • ????下面的layer2把神經(jīng)元個(gè)數(shù)由800個(gè)壓縮映射為500個(gè)'''??
  • ????layer2?=?HiddenLayer(??
  • ????????rng,??
  • ????????input=layer2_input,??
  • ????????n_in=nkerns[1]?*?4?*?4,??
  • ????????n_out=500,??
  • ????????activation=T.tanh??
  • ????)??
  • ??
  • ????#?最后一層:邏輯回歸層分類判別,把500個(gè)神經(jīng)元,壓縮映射成10個(gè)神經(jīng)元,分別對(duì)應(yīng)于手寫字體的0~9??
  • ????layer3?=?LogisticRegression(input=layer2.output,?n_in=500,?n_out=10)??
  • ??
  • ????#?the?cost?we?minimize?during?training?is?the?NLL?of?the?model??
  • ????cost?=?layer3.negative_log_likelihood(y)??
  • ??
  • ????#?create?a?function?to?compute?the?mistakes?that?are?made?by?the?model??
  • ????test_model?=?theano.function(??
  • ????????[index],??
  • ????????layer3.errors(y),??
  • ????????givens={??
  • ????????????x:?test_set_x[index?*?batch_size:?(index?+?1)?*?batch_size],??
  • ????????????y:?test_set_y[index?*?batch_size:?(index?+?1)?*?batch_size]??
  • ????????}??
  • ????)??
  • ??
  • ????validate_model?=?theano.function(??
  • ????????[index],??
  • ????????layer3.errors(y),??
  • ????????givens={??
  • ????????????x:?valid_set_x[index?*?batch_size:?(index?+?1)?*?batch_size],??
  • ????????????y:?valid_set_y[index?*?batch_size:?(index?+?1)?*?batch_size]??
  • ????????}??
  • ????)??
  • ??
  • ????#把所有的參數(shù)放在同一個(gè)列表里,可直接使用列表相加??
  • ????params?=?layer3.params?+?layer2.params?+?layer1.params?+?layer0.params??
  • ??
  • ????#梯度求導(dǎo)??
  • ????grads?=?T.grad(cost,?params)??
  • ??
  • ????#?train_model?is?a?function?that?updates?the?model?parameters?by??
  • ????#?SGD?Since?this?model?has?many?parameters,?it?would?be?tedious?to??
  • ????#?manually?create?an?update?rule?for?each?model?parameter.?We?thus??
  • ????#?create?the?updates?list?by?automatically?looping?over?all??
  • ????#?(params[i],?grads[i])?pairs.??
  • ????updates?=?[??
  • ????????(param_i,?param_i?-?learning_rate?*?grad_i)??
  • ????????for?param_i,?grad_i?in?zip(params,?grads)??
  • ????]??
  • ??
  • ????train_model?=?theano.function(??
  • ????????[index],??
  • ????????cost,??
  • ????????updates=updates,??
  • ????????givens={??
  • ????????????x:?train_set_x[index?*?batch_size:?(index?+?1)?*?batch_size],??
  • ????????????y:?train_set_y[index?*?batch_size:?(index?+?1)?*?batch_size]??
  • ????????}??
  • ????)??
  • ????#?end-snippet-1??
  • ??
  • ????###############??
  • ????#?TRAIN?MODEL?#??
  • ????###############??
  • ????print?'...?training'??
  • ????#?early-stopping?parameters??
  • ????patience?=?10000??#?look?as?this?many?examples?regardless??
  • ????patience_increase?=?2??#?wait?this?much?longer?when?a?new?best?is??
  • ???????????????????????????#?found??
  • ????improvement_threshold?=?0.995??#?a?relative?improvement?of?this?much?is??
  • ???????????????????????????????????#?considered?significant??
  • ????validation_frequency?=?min(n_train_batches,?patience?/?2)??
  • ??????????????????????????????????#?go?through?this?many??
  • ??????????????????????????????????#?minibatche?before?checking?the?network??
  • ??????????????????????????????????#?on?the?validation?set;?in?this?case?we??
  • ??????????????????????????????????#?check?every?epoch??
  • ??
  • ????best_validation_loss?=?numpy.inf??
  • ????best_iter?=?0??
  • ????test_score?=?0.??
  • ????start_time?=?timeit.default_timer()??
  • ??
  • ????epoch?=?0??
  • ????done_looping?=?False??
  • ??
  • ????while?(epoch?<?n_epochs)?and?(not?done_looping):??
  • ????????epoch?=?epoch?+?1??
  • ????????for?minibatch_index?in?xrange(n_train_batches):#每一批訓(xùn)練數(shù)據(jù)??
  • ??
  • ????????????cost_ij?=?train_model(minibatch_index)??
  • ????????????iter?=?(epoch?-?1)?*?n_train_batches?+?minibatch_index??
  • ????????????if?(iter?+?1)?%?validation_frequency?==?0:??
  • ??
  • ????????????????#?compute?zero-one?loss?on?validation?set??
  • ????????????????validation_losses?=?[validate_model(i)?for?i??
  • ?????????????????????????????????????in?xrange(n_valid_batches)]??
  • ????????????????this_validation_loss?=?numpy.mean(validation_losses)??
  • ????????????????print('epoch?%i,?minibatch?%i/%i,?validation?error?%f?%%'?%??
  • ??????????????????????(epoch,?minibatch_index?+?1,?n_train_batches,??
  • ???????????????????????this_validation_loss?*?100.))??
  • ??
  • ????????????????#?if?we?got?the?best?validation?score?until?now??
  • ????????????????if?this_validation_loss?<?best_validation_loss:??
  • ??
  • ????????????????????#improve?patience?if?loss?improvement?is?good?enough??
  • ????????????????????if?this_validation_loss?<?best_validation_loss?*??\??
  • ???????????????????????improvement_threshold:??
  • ????????????????????????patience?=?max(patience,?iter?*?patience_increase)??
  • ??
  • ????????????????????#?save?best?validation?score?and?iteration?number??
  • ????????????????????best_validation_loss?=?this_validation_loss??
  • ????????????????????best_iter?=?iter??
  • ??
  • ????????????????????#?test?it?on?the?test?set??
  • ????????????????????test_losses?=?[??
  • ????????????????????????test_model(i)??
  • ????????????????????????for?i?in?xrange(n_test_batches)??
  • ????????????????????]??
  • ????????????????????test_score?=?numpy.mean(test_losses)??
  • ????????????????????print(('?????epoch?%i,?minibatch?%i/%i,?test?error?of?'??
  • ???????????????????????????'best?model?%f?%%')?%??
  • ??????????????????????????(epoch,?minibatch_index?+?1,?n_train_batches,??
  • ???????????????????????????test_score?*?100.))??
  • ??
  • ????????????if?patience?<=?iter:??
  • ????????????????done_looping?=?True??
  • ????????????????break??
  • ??
  • ????end_time?=?timeit.default_timer()??
  • ????print('Optimization?complete.')??
  • ????print('Best?validation?score?of?%f?%%?obtained?at?iteration?%i,?'??
  • ??????????'with?test?performance?%f?%%'?%??
  • ??????????(best_validation_loss?*?100.,?best_iter?+?1,?test_score?*?100.))??
  • ????print?>>?sys.stderr,?('The?code?for?file?'?+??
  • ??????????????????????????os.path.split(__file__)[1]?+??
  • ??????????????????????????'?ran?for?%.2fm'?%?((end_time?-?start_time)?/?60.))??
  • ??
  • if?__name__?==?'__main__':??
  • ????evaluate_lenet5()??
  • ??
  • ??
  • def?experiment(state,?channel):??
  • ????evaluate_lenet5(state.learning_rate,?dataset=state.dataset)??
  • 訓(xùn)練結(jié)果:


    參考文獻(xiàn):

    1、http://blog.csdn.net/zouxy09/article/details/8775360/

    2、http://www.deeplearning.net/tutorial/lenet.html#lenet

    **********************作者:hjimce ? 時(shí)間:2015.8.6 ?聯(lián)系QQ:1393852684 ? 地址:http://blog.csdn.net/hjimce?轉(zhuǎn)載請(qǐng)保留本行信息********************

    總結(jié)

    以上是生活随笔為你收集整理的深度学习(四)卷积神经网络Lenet-5实现的全部?jī)?nèi)容,希望文章能夠幫你解決所遇到的問題。

    如果覺得生活随笔網(wǎng)站內(nèi)容還不錯(cuò),歡迎將生活随笔推薦給好友。

    国产视频综合在线 | 久久精品美女视频 | 色婷婷伊人 | 四虎最新域名 | 蜜臀av性久久久久蜜臀aⅴ涩爱 | 亚洲精品小视频 | 伊人黄色网 | 欧美性色黄大片在线观看 | 丁香六月婷婷激情 | 在线观看精品一区 | 色姑娘综合 | 亚洲精品在线观看的 | 欧美91精品久久久久国产性生爱 | 日本丰满少妇免费一区 | 玖玖视频精品 | 国产精品初高中精品久久 | 亚洲精品动漫久久久久 | 久久毛片高清国产 | 天天插天天操天天干 | 国产日韩欧美中文 | 国产91精品在线播放 | 欧美日韩一区二区在线 | 国产精品一区二区三区免费看 | 欧美日韩国产综合网 | 久久久激情网 | 992tv在线观看网站 | 成人影片在线播放 | 99精品福利视频 | 天天操 夜夜操 | 亚洲视频,欧洲视频 | 91在线视频免费 | 2023年中文无字幕文字 | 色综合天天 | av免费网站在线观看 | 久久高清毛片 | 欧美性生活大片 | 人人爽人人乐 | 婷婷丁香激情五月 | 久久精品香蕉 | 国产高清综合 | 国产精品久久久免费看 | 日韩中文在线电影 | 97狠狠干 | 亚洲综合激情网 | 久久综合丁香 | 成人h视频在线播放 | 在线播放 一区 | 久青草视频 | 欧美日韩国产综合一区二区 | 免费福利在线观看 | 日韩视频免费观看高清完整版在线 | 国产麻豆精品传媒av国产下载 | 亚洲精品乱码久久 | 天天操天天射天天添 | 五月天激情综合网 | 最新色站 | 亚洲精品久久久久999中文字幕 | 在线看片日韩 | 在线观看黄 | 亚洲撸撸| 日韩欧美高清不卡 | 97超碰中文字幕 | 草在线| 日本成人中文字幕在线观看 | 天堂av免费观看 | 欧美在线观看小视频 | 亚洲在线精品视频 | 狠狠干干 | 超碰国产人人 | 麻豆国产视频下载 | www.国产视频 | 欧美va天堂va视频va在线 | 欧美在线你懂的 | 婷婷六月网 | 免费色av | 中文字幕在线观看免费观看 | 在线免费观看黄色大片 | 欧美日韩中文字幕视频 | 免费成人av电影 | 亚洲综合网| 手机在线看永久av片免费 | 久久久久久久久久网 | 婷婷六月丁香激情 | 成人亚洲网 | 有没有在线观看av | 精品毛片一区二区免费看 | 一区二区男女 | 在线视频18在线视频4k | 国产超碰在线观看 | 337p欧美 | .国产精品成人自产拍在线观看6 | 91理论电影 | 五月天色网站 | 正在播放国产91 | 国产一区二区不卡在线 | 天天色棕合合合合合合 | 欧美日韩在线精品一区二区 | 在线观看完整版 | 高清一区二区三区av | 久久久久久久久久久高潮一区二区 | 日韩视频一区二区在线 | 国产精品av一区二区 | 麻豆 videos| 国产对白av | 久草精品在线播放 | 中文字幕日本特黄aa毛片 | 欧美日韩国产区 | 天天躁日日躁狠狠躁 | 日本黄色免费播放 | 亚洲成人家庭影院 | 日本老少交| 日本成址在线观看 | 欧美精品日韩 | 精品uu| 日本爱爱免费 | 五月亚洲综合 | 午夜av免费在线观看 | 国产不卡av在线播放 | 久草视频精品 | 久草视频免费在线播放 | 在线中文字母电影观看 | 欧美性生活久久 | 国产一区二区在线免费播放 | 夜夜视频资源 | 激情狠狠干 | 国产精品欧美久久久久无广告 | 91国内产香蕉 | 国产网红在线 | 亚洲三级黄色 | 狠狠干网站 | 韩国av不卡| 亚洲精品一区二区网址 | 国产亚洲精品久久久久久久久久 | 国产在线2020 | 婷婷色在线观看 | 国产三级视频 | 中文字幕第一页在线视频 | 亚洲资源 | 狠狠狠色丁香综合久久天下网 | 天天射综合 | 天天干天天弄 | 久久99免费 | 久久r精品| 久久五月网 | 高清视频一区 | 91人网站 | 国产又粗又硬又爽视频 | 国产91探花| 黄色影院在线免费观看 | 五月婷婷久久丁香 | 久久综合之合合综合久久 | 成人黄色在线电影 | 色视频在线观看免费 | 久久久国产电影 | 精品一二三四五区 | av网站在线免费观看 | 91视频 - x99av | 欧美一级免费在线 | 婷婷丁香在线观看 | 在线视频 91 | 在线亚洲高清视频 | 又黄又爽的免费高潮视频 | av丝袜美腿| 国产在线播放一区二区 | 欧美大片aaa| 国产精品国产三级国产aⅴ无密码 | 激情综合网在线观看 | 毛片网在线播放 | 久草网视频 | 成人在线视频论坛 | 91中文字幕在线视频 | 四虎国产精品成人免费影视 | 国产精品剧情 | 日本韩国欧美在线观看 | 一区二区三区免费看 | 97视频在线免费播放 | 91视频观看免费 | 亚洲精品久久久久中文字幕m男 | 日韩av片免费在线观看 | 国产中年夫妇高潮精品视频 | 亚洲精品午夜久久久 | 国产高清在线不卡 | 夜夜嗨av色一区二区不卡 | 玖玖在线看 | 在线91播放 | 97国产精品久久 | 在线播放你懂 | 一级国产视频 | 国产精品久久久免费看 | 人人cao| 亚洲精品国产综合99久久夜夜嗨 | 国产经典av | 精品在线视频播放 | 欧美精品中文 | 国产专区视频在线 | 久久综合狠狠综合 | 国产精品1024| 99精品福利 | 成人免费xxxxxx视频 | 天天操夜夜操夜夜操 | 国产高清在线观看 | 婷婷精品在线视频 | 婷婷综合影院 | 天天性天天草 | 久久久久久网站 | 超碰国产人人 | 国产精品一区二区精品视频免费看 | 国产精品乱看 | 亚洲激情网站免费观看 | 2019中文 | 超碰97人 | 最近日韩免费视频 | 91在线看网站 | 一级性生活片 | 国产乱对白刺激视频不卡 | 高清久久久久久 | 99精品系列 | av黄色在线播放 | 在线观看av片 | 1024手机基地在线观看 | 波多野结衣一区二区三区中文字幕 | 免费看在线看www777 | 99热手机在线 | 久久在现视频 | 日韩免费观看高清 | 国产一区视频在线观看免费 | 在线国产中文字幕 | 亚洲涩涩网站 | 日韩精品一区二区三区第95 | 在线婷婷| 伊人手机在线 | 国产精品网站一区二区三区 | 色婷婷狠狠干 | 日日天天干 | 在线观看视频福利 | 国产99在线免费 | 超碰在线最新网址 | 夜夜夜夜猛噜噜噜噜噜初音未来 | 丰满少妇在线观看 | 日韩精品国产一区 | 国产黄影院色大全免费 | 2019中文在线观看 | 国产系列 在线观看 | 91传媒免费在线观看 | 国产999| 69精品人人人人 | 国产精品亚洲片夜色在线 | 最新婷婷色 | 天堂在线一区二区 | 国产精品淫 | 日韩av在线免费看 | 国产精品毛片完整版 | 丁香婷婷在线观看 | av色综合网| 五月在线 | 一区三区视频在线观看 | 国产精品av在线 | 婷婷中文字幕 | 亚洲国产一二三 | 午夜久久久久久久 | 国产中文欧美日韩在线 | 国产高清一| 欧美91精品久久久久国产性生爱 | 国产va在线 | 在线观看网站av | 96av视频| 在线观看小视频 | 亚洲一区二区三区四区在线视频 | av动态图片 | 一区二区精 | 午夜精品视频福利 | 久久久久蜜桃 | 国产在线久久久 | 久久久18| 国产精品久久久久久久久久不蜜月 | 久久99免费视频 | 精品久久久久久久久久久久久久久久 | 一区二区三区视频网站 | 国产99久久久国产精品免费二区 | 91精品国产乱码久久 | 国产高清在线一区 | 日韩电影在线观看一区二区三区 | 亚洲国产av精品毛片鲁大师 | 婷婷国产一区二区三区 | 婷婷色综 | 日韩伦理一区二区三区av在线 | 国产超碰在线 | 91黄色免费看 | 国产资源在线观看 | 97视频免费看 | 操高跟美女 | 日韩av资源站 | 国产日产精品一区二区三区四区的观看方式 | 天天综合人人 | 亚洲最新视频在线 | 国产精品大尺度 | 成年人免费在线观看 | 久久久久国产精品免费免费搜索 | 97超碰伊人| 五月天激情综合 | 草久热| 免费看的黄色小视频 | 国产精品第一页在线观看 | 久久久私人影院 | 国产丝袜一区二区三区 | 日韩精品在线视频免费观看 | 精品一区二区在线免费观看 | 国产精品视频大全 | 成人资源在线观看 | 亚洲人成影院在线 | 欧美一级片播放 | 日韩成人xxxx | av电影 一区二区 | 久久免费看av | 99色免费| 91视频免费看片 | 超级碰碰碰碰 | 天天操夜夜看 | 中文字幕成人 | 色综合中文综合网 | 国产精华国产精品 | 高清av免费一区中文字幕 | 天天综合婷婷 | 亚洲欧美日韩在线看 | 日本激情视频中文字幕 | 黄色av免费| 91专区在线观看 | 天天操狠狠操网站 | 日韩成人免费电影 | 99久久夜色精品国产亚洲 | 国产97视频 | 欧美日韩在线观看一区 | 在线观看中文字幕视频 | 久久97超碰 | 欧美视频不卡 | 99精品久久只有精品 | 国产二区av | 综合在线亚洲 | 久久高清免费观看 | 91亚色视频在线观看 | 免费一级片在线观看 | 97视频在线观看视频免费视频 | 国产高清成人在线 | 成人一级片视频 | 97视频在线免费 | 香蕉久草在线 | av 一区 二区 久久 | 国产精品video爽爽爽爽 | 97超碰影视| 色爱成人网 | 四虎影视国产精品免费久久 | 久久夜色精品国产欧美一区麻豆 | 97超在线视频 | 欧美精品xxx | 成人在线网站观看 | 在线亚洲观看 | 国产一级片不卡 | 九色免费视频 | 久久午夜电影院 | 伊人久久影视 | 成人超碰97 | 狠狠干天天操 | 国产精品亚洲片夜色在线 | 99视频在线免费看 | 国产精品成人免费一区久久羞羞 | 又黄又爽又刺激的视频 | 91麻豆国产福利在线观看 | 国产日韩欧美在线观看 | 欧美 日韩 性 | 亚洲欧美成人综合 | 国产福利精品视频 | 成人午夜黄色 | www黄| 久草视频在线资源 | 国产精品乱码久久久 | 亚洲欧洲精品一区二区 | 69人人| 黄色av免费 | 亚洲国产精品500在线观看 | 在线播放视频一区 | 玖玖999| 亚洲精品视频在线观看免费视频 | 国产精品久久电影网 | 97视频网站 | av网址aaa| 国产一区国产二区在线观看 | 亚洲激情综合 | 99免费精品视频 | 日韩欧美视频免费观看 | 免费日韩 精品中文字幕视频在线 | 日韩av一卡二卡三卡 | 精品久久久久一区二区国产 | 国产操在线 | 日韩视频在线不卡 | 久久久久久久毛片 | 在线韩国电影免费观影完整版 | 久久草网站 | 亚洲精品一区二区在线观看 | 黄色91在线观看 | 又黄又爽又色无遮挡免费 | 美女国产 | 成人免费一区二区三区在线观看 | 免费看片网站91 | 在线看成人av | 欧美日韩激情视频8区 | 伊人色综合久久天天网 | 亚洲综合成人av | 日日干夜夜干 | 天天操天天是 | 中文字幕 在线 一 二 | 国产精品成人在线观看 | 在线观看视频一区二区三区 | 国产精品久久久久婷婷 | a级成人毛片 | 嫩草伊人久久精品少妇av | 亚洲va在线va天堂va偷拍 | 国产美女黄网站免费 | 国产综合精品一区二区三区 | 激情一区二区三区欧美 | www激情久久 | 四川妇女搡bbbb搡bbbb搡 | 日本精品在线视频 | 国产精品视频永久免费播放 | 婷婷中文在线 | av在线播放中文字幕 | 91日韩在线 | 精品福利在线视频 | 国产精品1区2区在线观看 | 免费亚洲片 | 欧美一级电影免费观看 | 欧美精品久久久久久久久老牛影院 | 丁香花在线视频观看免费 | 久久精品伊人 | 亚洲欧美日韩一二三区 | 国产精品美女久久久网av | 黄色av一区二区 | 69精品在线 | 波多野结衣综合网 | 精品久久久久久久久久久久久久久久 | 日韩av电影网站在线观看 | 国产又粗又猛又色 | 在线播放日韩av | 欧美成人高清 | 国产成人精品久久 | 国产美女精品久久久 | 国产打女人屁股调教97 | a天堂在线看 | 欧美日韩在线精品一区二区 | 午夜精品三区 | 国产男女无遮挡猛进猛出在线观看 | 97在线观看免费高清完整版在线观看 | 日黄网站 | 500部大龄熟乱视频使用方法 | 视频成人永久免费视频 | 免费男女羞羞的视频网站中文字幕 | 成全在线视频免费观看 | 中文字幕在线高清 | 一区二区三区韩国免费中文网站 | 狠狠色丁香久久婷婷综合丁香 | 色爱区综合激月婷婷 | 国产精品s色 | 日韩在线观看视频中文字幕 | 91在线观看视频网站 | 国内精品二区 | 日韩av伦理片 | 成人av网站在线播放 | 黄色特级一级片 | 成人国产在线 | 亚洲另类视频 | 久综合网| 免费观看91视频大全 | 久久久综合香蕉尹人综合网 | 国产精品久久久久四虎 | 高清av免费看 | 在线视频区 | 日韩中文字| 成人av一区二区在线观看 | 久久久久欠精品国产毛片国产毛生 | 国产区网址 | 午夜精品视频一区 | 精品电影一区二区 | 午夜精品一区二区国产 | 国产精品嫩草在线 | 欧美激情综合五月色丁香 | 久草视频在线新免费 | 综合网天天 | 香蕉在线观看 | 国产午夜免费视频 | 欧美ⅹxxxxxx| av电影在线观看 | 亚洲精品一区二区三区高潮 | 欧美日韩精品区 | 日韩在线中文字幕视频 | 国产一区二区三区免费在线观看 | 久久精品国产亚洲 | 免费人成网| 美女av免费看 | 开心激情综合网 | 日本在线免费看 | 中文字幕在线观看一区二区三区 | 91精品国产99久久久久久久 | 精品国产99国产精品 | 91片黄在线观看动漫 | 91av视频免费在线观看 | 国产原创中文在线 | 久久伊人八月婷婷综合激情 | www.五月天| 国产成人精品久久二区二区 | 久久亚洲热 | 久久精品91久久久久久再现 | 中文字幕黄色av | 婷婷中文在线 | 99久久精品免费看国产四区 | 97在线观看 | 午夜精品视频一区二区三区在线看 | 一区二区三区手机在线观看 | 色综合狠狠干 | 国产网站在线免费观看 | 香蕉在线观看 | 最新免费中文字幕 | 色福利网 | 中文字幕在线视频国产 | 国产精品欧美一区二区 | 96av在线| 久草手机视频 | 国产精品大片免费观看 | 久久电影网站中文字幕 | 欧美另类美少妇69xxxx | 99久久超碰中文字幕伊人 | 欧美精品一区二区在线观看 | 激情五月***国产精品 | 国产视频97 | 久久久国产日韩 | 97手机电影网 | a级一a一级在线观看 | 国产成人精品999 | 最近中文字幕免费视频 | 激情视频二区 | 免费三级网 | 日韩一区二区免费视频 | 激情网第四色 | 人人爽久久久噜噜噜电影 | 一级黄网| 爱爱一区| 久久综合五月婷婷 | 激情亚洲综合在线 | 久久好看 | 午夜视频在线瓜伦 | 久久不卡电影 | 婷婷四房综合激情五月 | 日韩免费久久 | 国产 日韩 中文字幕 | 深爱激情站| 狠狠干狠狠久久 | 韩国精品福利一区二区三区 | 国产免费久久精品 | 超碰在线人人 | 国产精品久久久久久a | 香蕉日日 | 日韩高清久久 | 精品久久久久久久久久久久 | 欧日韩在线视频 | 国产一区二区在线免费播放 | 97av在线视频免费播放 | 欧美91视频 | 五月激情久久久 | 国产亚洲一区二区三区 | 免费高清影视 | 国产精品一区二区白浆 | 久久久精品国产免费观看同学 | 欧美日韩中文在线视频 | 97精品国产91久久久久久 | 国产打女人屁股调教97 | 高清av免费观看 | 日韩超碰 | 黄网站免费大全入口 | 最新av网址在线 | 五月天婷婷在线视频 | 黄色毛片视频免费观看中文 | 丁香资源影视免费观看 | 中文字幕在线日 | 在线视频1卡二卡三卡 | av福利在线看 | 亚洲视频在线观看 | 99热国内精品| 久久久久国产成人精品亚洲午夜 | 97精品国自产拍在线观看 | 91视视频在线直接观看在线看网页在线看 | 97精品超碰一区二区三区 | 日韩视频免费观看高清完整版在线 | 99热官网| 欧洲在线免费视频 | 精品av在线播放 | 国产91丝袜在线播放动漫 | 天天干天天天 | 欧美aa级 | 久久伦理 | 久久丁香网| 一区二区三区精品久久久 | 国产一区二区三精品久久久无广告 | 在线观看视频三级 | 国产精品av在线免费观看 | 首页中文字幕 | 亚洲 欧洲av| 免费在线观看国产黄 | 国产亚洲精品成人 | 91麻豆精品久久久久久 | 欧美日韩另类视频 | 色插综合 | 免费日韩在线 | 黄色av一区 | 丁香五婷 | 狠狠操夜夜操 | 国产日产精品一区二区三区四区的观看方式 | 日韩成人精品一区二区 | 人人爽人人爽人人爽 | 91专区在线观看 | 五月婷婷中文字幕 | 日日成人网 | 国产精品久久一区二区无卡 | 日韩av成人免费看 | 亚洲国产精品久久久久 | 亚洲国产成人在线播放 | 婷婷深爱 | 伊人春色电影网 | 精品一区二区精品 | 久久精品中文字幕少妇 | 精品国产乱码一区二区三区在线 | 91热| 又黄又爽的视频在线观看网站 | 开心激情久久 | 欧美精品久久人人躁人人爽 | 中文字幕在线一区观看 | 日韩精品免费专区 | 中文字幕一区二区三区久久 | 日日夜夜爱 | 亚洲人视频在线 | 成人97视频| 欧美精品乱码久久久久久按摩 | 久久精品视频免费观看 | 麻豆91在线播放 | 国产理论片在线观看 | av在线专区| 中国美女一级看片 | 嫩草av在线 | 欧美日韩一区二区三区免费视频 | 日韩网站在线免费观看 | 在线韩国电影免费观影完整版 | 91亚洲精品视频 | 亚洲无毛专区 | 婷婷av电影 | 黄色资源在线 | 在线国产观看 | 日韩视频一区二区三区在线播放免费观看 | 久久国内视频 | 久草在线免费播放 | 9999激情| 日韩视频在线观看免费 | 国产视频1区2区3区 久久夜视频 | 99国产精品一区二区 | 黄色片免费看 | 00av视频| 精品久久精品久久 | 在线欧美最极品的av | 日韩大陆欧美高清视频区 | 国产韩国日本高清视频 | 久久久精品午夜 | 五月婷婷综合在线 | 视频在线在亚洲 | 日韩综合精品 | 日韩亚洲欧美中文字幕 | 国产精品99精品 | 久久精品专区 | 久久精品综合网 | 午夜电影av | 国产一区二区三区免费观看视频 | 久久精品79国产精品 | 夜夜躁日日躁狠狠久久88av | 亚洲闷骚少妇在线观看网站 | 国产精品女同一区二区三区久久夜 | 日韩国产精品一区 | 亚洲在线黄色 | 手机在线看a | 国产免费又粗又猛又爽 | 久久女同性恋中文字幕 | 美女激情影院 | 成人免费视频a | 亚洲精品视频在线观看视频 | 美女av免费看 | 成人99免费视频 | 国产在线视频在线观看 | 激情av综合 | 黄色特级片 | 国产精品免费一区二区三区在线观看 | av中文字幕网站 | 欧美视频网址 | 久草在线99| 精品一区二区三区久久 | 精品乱码一区二区三四区 | 黄色av成人在线观看 | 97在线免费视频观看 | 91亚洲综合 | 国产+日韩欧美 | 91自拍视频在线观看 | 综合久久久久久 | 午夜久草 | 亚洲一区网 | 成人午夜片av在线看 | 亚洲精品久久视频 | 国产色影院 | 天天射天天拍 | 免费成人看片 | 女人高潮特级毛片 | 96久久欧美麻豆网站 | 美女久久久久久久 | 九色91在线| 天干啦夜天干天干在线线 | 精品女同一区二区三区在线观看 | 日本黄色a级大片 | 中文字幕中文中文字幕 | 国产精品视频 | 久在线 | 国产在线日韩 | a视频免费在线观看 | 91精品久久久久久久久久久久久 | 国产精品美女久久久久久 | 在线观看 国产 | 91精品国产一区二区三区 | www.久热| 国产一性一爱一乱一交 | 成人免费观看视频大全 | 天躁狠狠躁 | 久久成人麻豆午夜电影 | 欧美日韩在线观看一区二区三区 | 日本中文字幕观看 | 一区av在线播放 | 韩国av免费看 | 久久久精品在线观看 | 久久美女精品 | 天天射,天天干 | 久热电影 | 久久久久女教师免费一区 | 中文字幕免费成人 | 免费网站污 | 午夜美女wwww | 精品视频免费观看 | www国产亚洲精品久久网站 | 亚洲国产精品女人久久久 | 超级碰99 | 久草电影网| 久久国产免费看 | 亚洲国产精久久久久久久 | 国产成人久久精品77777 | av黄色在线播放 | 国产亚洲婷婷免费 | 国产精品手机看片 | 三级av免费 | 国产精品美女视频网站 | 亚洲闷骚少妇在线观看网站 | 91插插插免费视频 | 天天草天天摸 | av千婊在线免费观看 | 日韩欧美一区二区在线观看 | 精品国产一区二区三区久久影院 | 久久伊人免费视频 | 久久午夜色播影院免费高清 | 国产男男gay做爰 | 五月婷婷色播 | 婷婷综合激情 | 最近中文字幕第一页 | 成年人在线观看视频免费 | 欧美亚洲另类在线视频 | 日韩在线视频二区 | 亚洲涩涩色 | 精品视频免费播放 | 精品美女在线观看 | 亚洲国产三级 | 国产黄色大片免费看 | 91热视频 | 亚洲91视频 | 韩国av免费看 | 91黄色小视频| 国产亚洲免费的视频看 | 91九色在线观看视频 | 一区二区三区在线播放 | 91在线视频观看 | 久久人人做 | 久久久久电影网站 | 欧美日韩电影在线播放 | 国产午夜精品免费一区二区三区视频 | 欧美a级在线 | 国产精品2020| 国产97免费 | 91av资源在线 | 夜夜夜夜猛噜噜噜噜噜初音未来 | 国产精品免费久久久久 | 黄色成人在线网站 | 午夜一级免费电影 | 久久久久久久亚洲精品 | 高清av中文字幕 | aaa毛片视频 | 伊人狠狠干| 天天综合区| 男女激情麻豆 | 91香蕉亚洲精品 | 久久99国产综合精品免费 | 香蕉国产91| 久久久免费视频播放 | 天天操天天干天天操天天干 | 人人爽人人香蕉 | 久久免费视频播放 | 欧美xxxxx在线视频 | 成人午夜性影院 | 亚洲精品理论 | 亚洲国产精选 | 中文字幕在线观看视频一区二区三区 | 成人免费观看在线视频 | av解说在线观看 | 欧美亚洲国产精品久久高清浪潮 | 久草在线视频网站 | 国产精品福利无圣光在线一区 | 91天堂在线观看 | 国产精品高清一区二区三区 | 日本aa在线 | 亚洲精区二区三区四区麻豆 | av在线播放一区二区三区 | 99久久99视频 | 97人人超碰在线 | 成人免费网视频 | av久久久| 国产黄av | 日av免费| av高清不卡 | 亚洲第一成网站 | 国产午夜一区 | 丁香五月亚洲综合在线 | 久精品视频在线 | 日韩美av在线 | a电影在线观看 | 色综合咪咪久久网 | 天天做天天爱天天爽综合网 | 国内揄拍国内精品 | 免费的国产精品 | 亚洲精品网页 | av一区二区三区在线播放 | 久久久久久久久网站 | 国产黄色成人av | 久久激五月天综合精品 | 国产麻豆精品一区 | 亚洲黄色在线 | 在线看片一区 | 91禁在线看 | 一级性av | 久久99视频精品 | 欧美日韩国产精品一区 | 精品国产99国产精品 | 操操日日| 碰超人人 | 三级av免费看| 久久九九国产视频 | 久久久国产视频 | 亚洲热久久 | 久久久久国产精品午夜一区 | 激情五月伊人 | 黄色一级免费电影 | 麻豆成人在线观看 | 日韩素人在线观看 | 国产高清av在线播放 | 亚洲一级特黄 | 日韩免费在线观看视频 | 永久免费观看视频 | 免费观看v片在线观看 | 91精品视频播放 | 三上悠亚一区二区在线观看 | 开心综合网| bbbbb女女女女女bbbbb国产 | 国产精品二区在线 | 国产日本在线 | 蜜臀av性久久久久av蜜臀妖精 | 伊人久久av | 91福利视频免费观看 | 91亚色视频| 婷婷黄色片 | 亚洲视频,欧洲视频 | 久久视频免费在线 | 亚洲日本一区二区在线 | 国产精品久久久视频 | 我要色综合天天 | 99热这里是精品 | 人人干人人做 | 999久久久欧美日韩黑人 | 欧美亚洲三级 | 色婷婷激情网 | 色婷婷激情网 | 色婷婷中文| 日日操天天操夜夜操 | av在线8| 亚洲人成在线观看 | 五月天电影免费在线观看一区 | 亚洲黄色影院 | 久久99久久99精品中文字幕 | 久精品视频在线 | 狠狠躁夜夜躁人人爽超碰97香蕉 | 欧美日韩中文在线观看 | 婷婷综合五月天 | 五月婷婷综合久久 | 日本成址在线观看 | 99久久婷婷国产精品综合 | 高清精品久久 | 国产一级片网站 | 91视频高清免费 | 国产高清免费在线观看 | 欧美一区二区三区特黄 | 精品美女久久久久 | 黄免费在线观看 | 精品国产一区二区三区在线观看 | 中文字幕 国产精品 | 婷婷五情天综123 | 国产中文字幕免费 | 日韩a在线 | 手机在线看a | 亚洲精品美女在线观看播放 | 亚洲成人网在线 | 亚洲人成免费网站 | 亚洲国产成人精品在线观看 | 午夜在线观看一区 | 91九色最新地址 | 91精品专区 | 久久久久9999亚洲精品 | 日韩在线电影一区 | 日韩欧美一区二区不卡 | 中文av网站 | 国产免费不卡av | 国产精品视频资源 | 久久久久久久久爱 | 精品免费视频 | 日韩中文字幕亚洲一区二区va在线 | av官网| 最近中文国产在线视频 | 欧美精品一区在线 | 天天做天天爽 | 中文字幕在线观看完整版 | 精品九九九九 | 成人久久18免费 | 日韩欧美高清一区二区三区 | 成人免费视频视频在线观看 免费 | 国产一级视频在线观看 | 狠狠干狠狠色 | 日本中文一区二区 | 97av视频在线观看 | 香蕉视频国产在线观看 | 国产在线精品一区二区三区 | 永久av免费在线观看 | 免费在线a| 视频福利在线观看 | 精品视频久久久 | 三级视频日韩 | 国产欧美精品一区aⅴ影院 99视频国产精品免费观看 | 国产探花在线看 | 日韩高清激情 | 国产成人久久精品亚洲 | 欧美黄色免费 | 国产91精品久久久久久 | 在线小视频你懂的 | 国产一区二区在线免费播放 | 97精品国产一二三产区 | 一区二区三区电影大全 | 六月丁香综合 | 999久久久久久久久6666 | 黄视频色网站 | 91香蕉视频色版 | 涩涩色亚洲一区 | 国产美女精品久久久 | 中文字幕色综合网 | 久久这里只有精品9 | 日韩在线观看一区 | 亚洲特级毛片 | 香蕉在线影院 | 国产精品女同一区二区三区久久夜 | 香蕉日日 | 久久久国产成人 | 天天射综合 | 激情 婷婷 | 国产首页| 国产综合片 | 国产一级片免费观看 | 久久手机精品视频 | 一区二区视频在线播放 | 综合久久网| 国产精品男女啪啪 | 免费在线观看国产黄 | 久久99国产精品视频 | 欧美精品在线观看 | 国产老妇av | 五月婷色| 国产精品3区 | 尤物一区二区三区 | 久久久久久综合 |