日韩av黄I国产麻豆传媒I国产91av视频在线观看I日韩一区二区三区在线看I美女国产在线I麻豆视频国产在线观看I成人黄色短片

歡迎訪問 生活随笔!

生活随笔

當前位置: 首頁 > 编程资源 > 编程问答 >内容正文

编程问答

alexnet 结构_AlexNet的体系结构和实现

發布時間:2023/12/15 编程问答 41 豆豆
生活随笔 收集整理的這篇文章主要介紹了 alexnet 结构_AlexNet的体系结构和实现 小編覺得挺不錯的,現在分享給大家,幫大家做個參考.

alexnet 結構

In my last blog, I gave a detailed explanation of the LeNet-5 architecture. In this blog, we’ll explore the enhanced version of it which is AlexNet.

在上一個博客中,我詳細介紹了 LeNet-5體系結構 在此博客中,我們將探索它的增強版本AlexNet。

AlexNet was the winner of the 2012 Imagenet Large Scale Visual Recognition Challenge(ILSVRC-2012) submitted by Alex Krizhevsky, Ilya Sutskever, and. Geoffrey E. Hinton and this model beat its nearest contender by more than a 10% error rate. These visual recognition challenges encourage the researchers to monitor the progress of computer vision research across the globe.

一個 lexNet提交由Alex Krizhevsky, 伊利亞Sutskever 2012年Imagenet大型視覺識別挑戰(ILSVRC-2012)的冠軍,和。 杰弗里·欣頓(Geoffrey E. Hinton)和這個模型以10%以上的錯誤率擊敗了其最接近的競爭者。 這些視覺識別挑戰鼓勵研究人員監視全球計算機視覺研究的進展。

Before we proceed further let’s discuss the data present in the Imagenet dataset. It contains images from dogs, horses, cars, etc. It contains 1000 classes and each class contains thousands of images. So in total, there are approximately 1.2 million high-resolution images in this dataset used by researchers for training, testing, and validating the model designed by researchers.

在繼續進行之前,讓我們討論Imagenet數據集中存在的數據。 它包含來自狗,馬,汽車等的圖像。它包含1000個類別 ,每個類別包含數千個圖像。 因此,在該數據集中,總共有大約120萬張高分辨率圖像被研究人員用于訓練,測試和驗證研究人員設計的模型。

Let’s dive into the AlexNet Architecture

讓我們深入研究AlexNet架構

Photo by Dylan Nolte on UnsplashD ylan Nolte在Unsplash上拍攝的照片

The AlexNet neural network architecture consists of 8 learned layers of which 5 are convolution layers, few are max-pooling layers, 3 are fully connected layers, and the output layer is a 1000 channel softmax layer. The pooling used here is Max pool.

AlexNet神經網絡體系結構由8個 學習層組成 ,其中5個是卷積層 ,很少是最大合并層 , 3個是全連接層,輸出層是1000通道softmax層。 這里使用的池是最大池。

Why 1000 channels of softmax layer are taken??

為什么要使用1000個softmax層通道?

This is because the Imagenet dataset contains 1000 different classes of images, so at the final output layer we have one node for each of these 1000 categories and the output layer is the softmax output layer.

這是因為Imagenet數據集包含1000種不同類別的圖像,因此在最終輸出層中,這1000個類別中的每一個都有一個節點,并且輸出層是softmax輸出層。

The basic architecture of AlexNet is as shown below:

AlexNet的基本體系結構如下所示:

Image from Anh H Reynolds Blog圖片來自Anh H Reynolds博客

The input to the AlexNet network is a 227 x 227 size RGB image, so it’s having 3 different channels- red, green, and blue.

AlexNet網絡的輸入是227 x 227尺寸的RGB圖像,因此它具有3個不同的通道-紅色,綠色和藍色。

Then we have the First Convolution Layer in the AlexNet that has 96 different kernels with each kernel’s size of 11 x 11 and with stride equals 4. So the output of the first convolution layer gives you 96 different channels or feature maps because there are 96 different kernels and each feature map contains features of size 55 x 55.

然后在AlexNet中有第一個卷積層 ,其中有96個不同的內核,每個內核的大小為11 x 11,步幅等于4。所以第一個卷積層的輸出為您提供96個不同的通道或特征圖,因為有96種不同的內核和每個要素圖都包含大小為55 x 55的要素。

計算: (Calculations:)

  • Size of Input: N = 227 x 227

    輸入大小:N = 227 x 227

  • Size of Convolution Kernels: f = 11 x 11

    卷積核的大小:f = 11 x 11

  • No. of Kernels: 96

    仁數: 96

  • Strides: S = 4

    步幅:S = 4

  • Padding: P = 0

    填充:P = 0

Size of each feature map = [(N — f + 2P)/S] + 1

每個特征圖的大小= [(N — f + 2P)/ S] + 1

  • Size of each feature map = (227–11+0)/4+1 = 55

    每個特征圖的大小= (227–11 + 0)/ 4 + 1 = 55

So every feature map after the first convolution layer is of the size 55 x 55.

因此,第一個卷積層之后的每個要素圖的大小均為55 x 55。

After this convolution, we have an Overlapping Max Pool Layer, where the max-pooling is done over a window of 3 x 3, and stride equals 2. So, here we’ll find that as our max pooling window is of size 3 x 3 but the stride is 2 that means max pooling will be done over an overlapped window. After this pooling, the size of the feature map is reduced to 27 x 27 and the number of feature channels remains 96.

卷積之后,我們有了一個重疊的最大池層,其中最大池在3 x 3的窗口上完成,步幅等于2。因此,在這里,我們會發現,由于我們的最大池窗口的大小為3 x 3,但跨度為2,這意味著將在重疊的窗口上進行最大池化。 合并之后,要素地圖的大小將減小為27 x 27,要素通道的數量仍為96。

計算: (Calculations:)

  • Size of Input: N = 55 x 55

    輸入大小:N = 55 x 55

  • Size of Convolution Kernels: f = 3 x 3

    卷積核的大小:f = 3 x 3

  • Strides: S = 2

    步幅:S = 2

  • Padding: P = 0

    填充:P = 0

  • Size of each feature map = (55–3+0)/2+1 = 27

    每個特征圖的大小= (55–3 + 0)/ 2 + 1 = 27

So every feature map after this pooling is of the size 27 x 27.

因此,合并后的每個要素地圖的大小均為27 x 27。

Then we have Second Convolution Layer where kernel size is 5 x 5 and in this case, we use the padding of 2 so that the output of the convolution layer remains the same as the input feature size. Thus, the size of feature maps generated by this second convolution layer is 27 x 27 and the number of kernels used in this case is 256 so that means from this convolution layer output we’ll get 256 different channels or feature maps and every feature map will be of size 27 x 27.

然后我們有了第二卷積層 ,其內核大小為5 x 5,在這種情況下,我們使用填充2,以便卷積層的輸出與輸入要素大小保持相同。 因此,第二個卷積層生成的特征圖的大小為27 x 27,在這種情況下使用的內核數為256,這意味著從該卷積層輸出中,我們將獲得256個不同的通道或特征圖,每個特征圖尺寸為27 x 27。

計算: (Calculations:)

  • Size of Input: N = 27 x 27

    輸入大小:N = 27 x 27

  • Size of Convolution Kernels: f = 5 x 5

    卷積核的大小:f = 5 x 5

  • No. of Kernels: 256

    仁數: 256

  • Strides: S = 1

    步幅:S = 1

  • Padding: P = 2

    填充:P = 2

  • Size of each feature map = (27–5+4)/1+1 = 27

    每個特征圖的大小= (27-5 + 4)/ 1 + 1 = 27

So every feature map after the second convolution layer is of the size 27 x 27.

因此,第二個卷積層之后的每個特征圖的大小均為27 x 27。

Now again we have an Overlapping Max Pool Layer, where the max-pooling is again done over a window of 3 x 3, and stride equals 2 which means max-pooling is done over overlapping windows and output of this become 13 x 13 feature maps and number of channels we get is 256.

現在我們又有了一個“ 重疊最大池層”,其中最大池再次在3 x 3的窗口上完成,步幅等于2,這意味著最大池在重疊的窗口上進行,其輸出變為13 x 13特征圖我們獲得的頻道數是256。

計算: (Calculations:)

  • Size of Input: N = 27 x 27

    輸入大小:N = 27 x 27

  • Size of Convolution Kernels: f = 3 x 3

    卷積核的大小:f = 3 x 3

  • Strides: S = 2

    步幅:S = 2

  • Padding: P = 0

    填充:P = 0

  • Size of each feature map = (27–3+0)/2+1 = 13

    每個特征圖的大小= (27–3 + 0)/ 2 + 1 = 13

So every feature map after this pooling is of the size 13 x13.

因此,此池化后的每個特征圖的大小均為13 x13。

Then we have Three Consecutive Convolution Layers of which the first convolution layer is having the kernel size of 3 x 3 with padding equal to 1 and 384 kernels give you 384 feature maps of size 13 x 13 which passes through the next convolution layer.

然后我們有三個連續的卷積層 ,其中第一個卷積層的內核大小為3 x 3,邊距等于1,384個內核給您384個大小為13 x 13的特征貼圖,這些特征貼圖將通過下一個卷積層。

計算: (Calculations:)

  • Size of Input: N = 13 x 13

    輸入大小:N = 13 x 13

  • Size of Convolution Kernels: f = 3 x 3

    卷積核的大小:f = 3 x 3

  • No. of Kernels: 384

    仁數: 384

  • Strides: S = 1

    步幅:S = 1

  • Padding: P = 1

    填充:P = 1

  • Size of each feature map = (13–3+2)/1+1 = 13

    每個特征圖的大小= (13–3 + 2)/ 1 + 1 = 13

In the second convolution, the kernel size is 13 x 13 with padding equal to 1 and it has 384 number of kernels that means the output of this convolution layer will have 384 channels or 384 feature maps and every feature map is of size 13 x 13. As we have given padding equals 1 for a 3 x 3 kernel size and that’s the reason the size of every feature map at the output of this convolution layer is remaining the same as the size of the feature maps which are inputted to this convolution layer.

在第二次卷積中 ,內核大小為13 x 13,填充等于1,并且具有384個內核數,這意味著該卷積層的輸出將具有384個通道或384個特征圖,每個特征圖的大小為13 x 13 。因為我們給定了3 x 3內核大小的padding等于1,所以這就是在此卷積層輸出處每個特征圖的大小與輸入到該卷積層中的特征圖的大小相同的原因。

計算: (Calculations:)

  • Size of Input: N = 13 x 13

    輸入大小:N = 13 x 13

  • Size of Convolution Kernels: f = 3 x 3

    卷積核的大小:f = 3 x 3

  • No. of Kernels: 384

    仁數: 384

  • Strides: S = 1

    步幅:S = 1

  • Padding: P = 1

    填充:P = 1

  • Size of each feature map = (13–3+2)/1+1 = 13

    每個特征圖的大小= (13–3 + 2)/ 1 + 1 = 13

The output of this second convolution is again passed through a convolution layer where kernel size is again 3 x 3 and padding equal to 1 which means the output of this convolution layer generates feature maps of the same size of 13 x 13. But in this case, AlexNet uses 256 kernels so that means at the input of this convolution we have 384 channels which now get converted to 256 channels or we can say 256 feature maps are generated at the end of this convolution and every feature map is of size 13 x 13.

第二個卷積的輸出再次通過一個卷積層,其中內核大小再次為3 x 3,填充等于1,這意味著該卷積層的輸出將生成相同大小的13 x 13的特征圖。但是在這種情況下,AlexNet使用256個內核,這意味著在該卷積的輸入處,我們有384個通道現在已轉換為256個通道,或者可以說在該卷積結束時生成了256個特征圖,每個特征圖的大小為13 x 13 。

計算: (Calculations:)

  • Size of Input: N = 13 x 13

    輸入大小:N = 13 x 13

  • Size of Convolution Kernels: f = 3 x 3

    卷積核的大小:f = 3 x 3

  • No. of Kernels: 256

    仁數: 256

  • Strides: S = 1

    步幅:S = 1

  • Padding: P = 1

    填充:P = 1

  • Size of each feature map = (13–3+2)/1+1 = 13

    每個特征圖的大小= (13–3 + 2)/ 1 + 1 = 13

Followed by the above is the next Overlapping Max Pool Layer, where the max-pooling is again done over a window of 3 x 3 and stride equal to 2 and that gives you the output feature maps and the number of channels remains same as 256 and the size of each feature map is 6 x 6.

緊隨其后的是下一個重疊的最大池層,其中最大池化再次在3 x 3的窗口內完成,步幅等于2,這將為您提供輸出要素圖,并且通道數保持與256和每個要素圖的大小為6 x 6。

計算: (Calculations:)

  • Size of Input: N = 13 x 13

    輸入大小:N = 13 x 13

  • Size of Convolution Kernels: f = 3 x 3

    卷積核的大小:f = 3 x 3

  • Strides: S = 2

    步幅:S = 2

  • Padding: P = 0

    填充:P = 0

  • Size of each feature map = (13–3+0)/2+1 = 6

    每個特征圖的大小= (13–3 + 0)/ 2 + 1 = 6

Now we have a fully connected layer which is the same as a multi-layer perception. The first two fully-connected layers have 4096 nodes each. After the above mentioned last max-pooling, we have a total of 6*6*256 i.e. 9216 nodes or features and each of these nodes is connected to each of the nodes in this fully-connected layer. So the number of connections we’ll have in this case is 9216*4096. And then every node from this fully connected convolution layer provides input to every node in the second fully connected layer. So here we’ll have a total of 4096*4096 connections as in the second fully connected layer also we have 4096 nodes.

現在我們有了一個完全連接的層,它與多層感知相同。 前兩個完全連接的層各有4096個節點。 在上述最后一個最大池之后,我們總共有6 * 6 * 256,即9216個節點或特征,并且這些節點中的每一個都連接到此完全連接層中的每個節點。 因此,本例中的連接數為9216 * 4096。 然后,該完全連接的卷積層中的每個節點都會向第二個完全連接層中的每個節點提供輸入。 因此,在這里,我們總共有4096 * 4096個連接,因為在第二個完全連接的層中,我們還有4096個節點。

And then, in the end, we have an output layer with 1000 softmax channels. Thus the number of connections between the second fully connected layer and the output layer is 4096*1000.

最后,我們有了一個包含1000個softmax通道的輸出層。 因此,第二完全連接層和輸出層之間的連接數為4096 * 1000。

Training on multiple GPUs

在多個GPU上訓練

Original Image published in [AlexNet-2012]原始圖片發表在[AlexNet-2012]

As we can see from the figure that inter-AlexNet was implemented in two channels because 1.2 million training examples were too big to fit on one GPU. So half of the network is put in one channel and the other half of the network is put into another channel. And as they are into two different channels so that made it possible to train this network on two different GPU cards. The GPU used was GTX 580 3GB GPUs and the network took between five to six days to get trained. Here cross-GPU parallelization (i.e. One GPU communicating with other GPU) is happening at some places like kernels of layer 3 take input from all kernel maps in layer 2. However, kernels in layer 4 take input only from those kernel maps in layer 3 which stay on the same GPU.

從圖中可以看出,AlexNet的實現是通過兩個渠道實現的,因為120萬個訓練示例太大而無法放在一個GPU上。 因此,網絡的一半放在一個通道中,網絡的另一半放在另一個通道中。 由于它們進入兩個不同的通道,因此可以在兩個不同的GPU卡上訓練該網絡。 使用的GPU是GTX 580 3GB GPU,并且網絡花費了五到六天的時間進行培訓。 這里在某些地方發生了跨GPU并行化 (即一個GPU與其他GPU通信),例如第3層的內核從第2層的所有內核映射獲取輸入。但是,第4層的內核僅從第3層的那些內核映射獲取輸入。保持在同一GPU上。

消失梯度問題 (Vanishing Gradient Problem)

If we use the non -linear activation function like sigmoidal or tan hyperbolic (tanh) function then it gives a risk of vanishing gradient that is in some cases when we are training the network with the gradient descent procedure vanishing gradient means that the gradient of the error function may become too small such that using that gradient when you try to update the network parameters, the update becomes almost negligible because the gradient itself is very small, that is what is vanishing gradient problem.

如果我們使用諸如S形或tan雙曲線(tanh)函數之類的非線性激活函數,則可能會出現梯度消失的風險,在某些情況下,當我們使用梯度下降過程訓練網絡時,梯度消失會意味著錯誤函數可能變得太小,以致于當您嘗試更新網絡參數時使用該梯度時,由于梯度本身很小,即梯度問題消失了,因此更新幾乎可以忽略不計。

Why does the Vanishing Gradient Problem arise??

為什么會出現消失梯度問題?

As we know with the graph of sigmoid function that if the value of an input is very high then it saturates to 1 and if the value of an input is too low then it saturates to 0. So when we try to take the gradient at these points the gradient is almost 0. The same thing is true if our non-linear activation function is tanh.

正如我們通過S型函數圖所知道的,如果輸入的值非常高,則其飽和度為1;如果輸入的值太低,則其飽和度為0。因此,當我們嘗試在這些位置采用梯度時表示梯度幾乎為0。如果我們的非線性激活函數為tanh,則情況相同。

How to prevent Vanishing Gradient Problem??

如何防止消失梯度問題?

To prevent the vanishing gradient problem we use the relu (Rectified Linear Unit) activation function. As relu function is max(x, 0) so for x>0 the gradient is always constant so this is the advantage when we use relu as the non-linear activation function. Also, the training time using gradient descent with saturating nonlinearities like tanh and sigmoid is much larger as compared to non-saturating nonlinearity like relu. This can be seen in the following diagram where a four-layered convolution network with ReLUs (solid line) as an activation function reached a 25% training error rate on CIFAR10 dataset six times faster than the same network when ran with tanh (dashed line) as an activation function. Thus, network with relu as an activation function learns almost six times faster than saturating activation functions.

為了避免梯度消失的問題,我們使用relu(整流線性單元)激活函數。 由于relu函數是max(x,0),因此對于x> 0來說梯度總是恒定的,因此這在我們將relu用作非線性激活函數時具有優勢。 同樣,與非飽和非線性(如relu)相比,使用具有飽和非線性(如tanh和Sigmoid)的梯度下降的訓練時間要大得多。 在下圖中可以看到這一點,其中以ReLU(實線)作為激活函數的四層卷積網絡在CIFAR10數據集上達到25%的訓練錯誤率,是使用tanh運行時(同上)的同一個網絡快六倍。作為激活功能。 因此,以relu作為激活功能的網絡的學習速度幾乎比飽和激活功能快六倍。

Original Image published in [AlexNet-2012]原始圖片發表在[AlexNet-2012]

Problem using relu as an activation function

使用relu作為激活功能的問題

Unlike the sigmoidal and tanh activation function where the activation output is limited and bounded but in case of relu, the output is unbounded. As x increases the non-linear output of the activation function relu also increases. So to avoid this problem AlexNet tries to normalize the output of the convolution layer before applying the relu through a process known as Local Response Normalization (or LR Normalization).

與S型和tanh激活函數不同,后者的激活輸出受到限制和限制,但是在relu的情況下,輸出是不受限制的。 隨著x增加,激活函數relu的非線性輸出也增加。 因此,為避免此問題,AlexNet嘗試通過稱為Local 響應歸一化(或LR歸一化)的過程在應用relu之前歸一化卷積層的輸出

本地響應規范化 (Local Response Normalization)

Local Response Normalization is a type of normalization in which excited neurons are amplified while dampering the surrounding neurons at the same time in a local neighborhood. This particular operation is encouraged from a phenomenon known as lateral inhibition in neurobiology which indicates the capacity of a neuron to reduce the activity of its neighbors. So, the output of the convolution is first normalized before applying the non-linear activation function to limit the output values by unbounded activation function relu. It is a non-trainable layer in the network.

局部響應歸一化是一種歸一化類型,其中受激神經元被放大,同時在局部鄰域中同時衰減周圍的神經元。 神經生物學中的一種稱為側向抑制的現象鼓勵了這種特殊的操作,該現象表明神經元減少其鄰居活動的能力。 因此,在應用非線性激活函數以通過無界激活函數relu限制輸出值之前,先對卷積的輸出進行歸一化。 它是網絡中的不可訓練層。

So this is how unbounded problem and vanishing gradient problem are prevented.

因此,這是如何防止無邊界問題和消失的梯度問題的方法。

Local Response Normalization can be done across the channel and also it can be done within a channel. When we do this normalization across the channel then it is known as Inter-channel normalization and when the normalization occurs between the features of the same channel it is known as Intra-channel normalization. Inter-channel normalization was performed in the AlexNet network. Based on the neighborhood two types of LRN can be seen from the below figure:

本地響應規范化可以在整個通道上完成,也可以在通道內完成。 當我們跨通道執行此歸一化時,則稱為通道間歸一化;而在同一通道的特征之間發生歸一化時,則稱為通道內歸一化 。 通道間標準化是在AlexNet網絡中執行的。 從下圖可以看出,基于鄰居的兩種類型的LRN:

Image from the blog by Aqeel Anwar圖片來自Aqeel Anwar的博客
  • Inter-channel normalization: Here normalization is performed across the channels and hence here neighborhood is the depth of the channel. The normalization output at the position (x,y) is given by the following formula:

    通道間歸一化:此處歸一化是在通道之間執行的,因此此處鄰域是通道的深度。 位置(x,y)的歸一化輸出由以下公式給出:

Original Image published in [AlexNet-2012]原始圖片發表在[AlexNet-2012]

Here, b[i, (x,y)] is the output at the location (x,y) in the ith channel and a[i, (x,y)] is the original value at location (x,y) in the ith channel. So in this, we normalize a[i, (x,y)] by a factor, and that factor is given by k plus alpha times sum of a[j, (x,y)] where this j varies between the neighboring channels. Thus j varies between a maximum of (0 and i-n/2) and a minimum of (N-1 and i+n/2) that means n/2 number of channels before and n/2 number of channels after i. 0 and N-1 are put to take care of the first and last channels. After this normalization, the output will be bounded and it can be shown with the subsequent figure.

這里,B [I,(X,Y)]是在該位置的輸出(X,Y)中的第i個信道和[I,(X,Y)]是在位置為初始值(X,Y)第一個通道。 因此,在此,我們將a [i,(x,y)]歸一化,該因子由ka [j,(x,y)]的 alpha乘和得出其中j在相鄰通道之間變化。 因此, j最大值 ( 0in / 2)最小值 ( N-1i + n / 2)之間變化 ,這意味著i之前為 n / 2個通道, i 之后為n / 2個通道 。 0和N-1用于處理第一個和最后一個通道。 進行此歸一化后,輸出將受到限制,并可以在下圖中顯示。

Image from the blog by Aqeel Anwar圖片來自Aqeel Anwar的博客
  • Intra-channel normalization: Here normalization occurs between the neighboring neurons across the surface of the same channel.

    通道內歸一化:此處歸一化發生在同一通道表面上的相鄰神經元之間。

Image from the blog by Aqeel Anwar 圖片來自Aqeel Anwa r 的博客

Here, b[k, (x,y)] is the output at the location (x,y) in the kth channel and a[k, (x,y)] is the original value at location (x,y) in the kth channel. So in this, we normalize a[k, (x,y)] by a factor, and that factor is given by k plus alpha times summation of the sum of squares of feature values within the neighborhood of x and y. Min and Max are put to take care of the features which are at the boundary of the feature maps. After this normalization, the output will be bounded and it can be shown with the subsequent figure.

此處, b [k,(x,y)]第k個通道中位置(x,y)的輸出,而a [k,(x,y)]第k個通道中位置(x,y)的原始值第k個頻道。 因此,在此,我們用一個因子對a [k,(x,y)]進行歸一化,并且該因子由kalpha乘以xy附近的特征值平方和之和得出 最小和最大用于處理位于特征圖邊界的特征。 進行此歸一化后,輸出將受到限制,并可以在下圖中顯示。

Image from the blog by Aqeel Anwar圖片來自Aqeel Anwar的博客

NOTE: ‘ k ‘ is used in the factor of both the normalization to avoid division by zero situation and here ‘k’ and ‘alpha’ are hyperparameters.

注意: “ k”用于規范化的因素,以避免被零除的情況,此處的“ k”“ alpha”超參數

過度擬合的問題 (Problem of Overfitting)

As there are 60 million parameters to be trained, so this would lead to the problem of overfitting which means the network would be able to learn or memorize the training data very properly but in case of testing input, it won’t be able to code the properties or features of the input data. So in such a case, the performance of the model in case of training may not be acceptable. So to reduce this overfitting issue additional augmented data was generated from the existing data and the augmentation(i.e. generation of new images from the original images by making variations like horizontal flipping, vertical flipping, zooming, etc. in the original images ) was done by mirroring and bt taking random crops from the input data. Another method by which the problem of overfitting was taken care of is by using dropout regularization.

由于有6000萬個要訓練的參數,因此這將導致過擬合的問題,這意味著網絡將能夠非常正確地學習或記憶訓練數據,但是在測試輸入的情況下,它將無法進行編碼輸入數據的屬性或特征。 因此,在這種情況下,在訓練情況下模型的性能可能無法接受。 因此,為了減少這種過擬合的問題,可以從現有數據中生成額外的增強數據,并通過以下方式進行增強(即通過對原始圖像進行水平翻轉,垂直翻轉,縮放等變化來從原始圖像生成新圖像) 鏡像和bt從輸入數據中獲取隨機作物 。 解決過擬合問題的另一種方法是使用輟學正則化

什么是輟學正規化? (What is Dropout Regularization??)

Image from Packt Subscription圖片來自Packt訂閱

In this randomly selected neuron or randomly selected nodes, which are selected with a probability of 0.5 are dropped from the network temporarily. So the probability of the nodes that are removed and the probability of the nodes that are retained both will be equal to 0.5. So the dropout means that the node which has been dropped out will not pass its output to the subsequent nodes in the subsequent layers downstream and for the same nodes during backward propagation, no updation will take place as removing the nodes will also remove its subsequent connections as well. But this would increase the number of iterations required for training the model but this would make the model less vulnerable to overfitting thus, generalizing the model.

在該隨機選擇的神經元或隨機選擇的節點中,以0.5的概率選擇的節點從網絡中暫時刪除。 因此,被刪除的節點的概率和被保留的節點的概率都等于0.5。 因此,丟棄意味著已丟棄的節點不會將其輸出傳遞到下游的后續層中的后續節點,并且對于反向傳播期間的同一節點,不會進行更新,因為刪除節點也會刪除其后續連接也一樣 但這會增加訓練模型所需的迭代次數,但這會使模型不易過擬合,從而使模型泛化。

有關Alexnet架構的事實和數據 (Facts and figures regarding Alexnet architecture)

  • The model was trained with 1.2 million images.

    該模型接受了120萬張圖像的訓練。
  • It has around 60 million parameters and 6,50,000 neurons.

    它具有約6000萬個參數和6,50,000個神經元。
  • Even after using 2 GPU, the network took approximately a week to train this network.

    即使使用了2個GPU,該網絡也花費了大約一周的時間來訓練該網絡。
  • As AlexNet takes 3 channels i.e. red, green, and blue into input so even if we input gray level image which is having just one channel so grayscale images need to be replicated into 3 channels R, G, and B so that it can be accepted by AlexNet.

    由于AlexNet將3個通道(即紅色,綠色和藍色)輸入到輸入中,因此即使我們輸入的灰度圖像只有一個通道,因此也需要將灰度圖像復制到R,G和B的3個通道中由AlexNet。
  • More number of computations are carried out in the earlier stage of the network and a large number of parameters are generated at the end of the network by fully connected layers(4096*4096).

    在網絡的早期階段執行了更多的計算,并且在網絡的末端通過完全連接的層(4096 * 4096)生成了大量參數。
  • For training, it uses Stochastic Gradient Descent with Momentum of 0.9, with a batch size of 128 examples, and weight decay of 0.0005

    為了進行訓練,它使用動量為0.9的隨機梯度下降,每批128個示例,重量衰減為0.0005
  • The three convolution layers(1, 2, and 5) are followed by the max-pooling layer.

    三個卷積層(1、2和5)后面是最大合并層。
  • The second, fourth and fifth convolution layers kernels are connected to only those kernels of the previous layer which are in the same GPU and the third convolution, and the fully connected layers are connected to all the neurons from the previous layers from both of the GPUs.

    第二,第四和第五卷積層內核僅連接到同一GPU和第三卷積中的上一層內核,并且完全連接的層連接到兩個GPU中上一層的所有神經元。
  • The weight(w) updation rule was as follows:

    權重( w )更新規則如下:

  • Original Image published in [AlexNet-2012]原始圖片發表在[AlexNet-2012]

    7. The initial weights to all the layers were assigned under Gaussian distribution with mean as 0 as standard deviation as 0.01. Also, the initial bias assigned was 1 to second, fourth, fifth convolution layers, and also to all the fully connected layers, but for all other layers, bias was assigned with 0.

    7.在高斯分布下分配所有層的初始權重,平均值為0,標準差為0.01。 同樣,分配給第二,第四,第五卷積層的初始偏置為1,也分配給所有完全連接的層,但是對于所有其他層,偏置分配為0。

    使用 Keras的lexNet代碼 (AlexNet code using Keras)

    Here we are going to use the oxflower17 dataset prepared by Oxford and it’s present in the tflearn library.

    在這里,我們將使用牛津大學編寫的oxflower17數據集,該數據集存在于tflearn庫中。

    Also, one important thing to note here is that the image size present in tflearn library has the size of (224 x 224), so we’ll be using 224 x 224 image instaed of 227 x 227 which was used in the original architecture.

    另外,這里要注意的一件事是tflearn庫中存在的圖像大小為(224 x 224),因此我們將使用224 x 224的insta圖片,即227 x 227,這是在原始體系結構中使用的。

    導入所需的庫 (Importing the required libraries)

    加載數據集 (Loading the dataset)

    檢查X和Y的形狀 (Checking the shape of X and Y)

    建立模型 (Creating the model)

    模型總結 (Summary of the model)

    • There are approx 46 million trainable parameters here as can be seen from the subsequent image.

      從下圖可以看出,這里大約有4600萬個可訓練參數。
    Image by Author圖片作者

    編譯模型 (Compiling the model)

    訓練模型 (Training the model)

    📌 To get the complete code of AlexNet or any other network visit my GitHub repository.

    get 要獲取AlexNet或任何其他網絡的完整代碼,請訪問我的 GitHub存儲庫

    [1]Alex Krizhevsky, Ilya Sutskever, Geoffrey E. Hinton — ImageNet Classification with Deep Convolutional Neural Networks(2012)

    [1] Alex Krizhevsky,Ilya Sutskever,Geoffrey E. Hinton — 深度卷積神經網絡的ImageNet分類 (2012年)

    Thanks for reading. Hope this blog would have helped you with both the coding and understanding of the architecture. 😃

    謝謝閱讀。 希望該博客對您的架構編碼和理解有所幫助。 😃

    翻譯自: https://medium.com/analytics-vidhya/the-architecture-implementation-of-alexnet-135810a3370

    alexnet 結構

    總結

    以上是生活随笔為你收集整理的alexnet 结构_AlexNet的体系结构和实现的全部內容,希望文章能夠幫你解決所遇到的問題。

    如果覺得生活随笔網站內容還不錯,歡迎將生活随笔推薦給好友。

    日韩在线一区二区免费 | 成人精品在线 | 久久国产亚洲精品 | 成人av在线亚洲 | 特级毛片网 | 成年人在线观看免费视频 | 亚洲午夜精品一区二区三区电影院 | 国产亚洲在 | www免费视频com━ | 国产精品福利午夜在线观看 | 亚洲最新av网址 | 日本久久久久 | 69精品视频在线观看 | 97在线观看视频 | 天天av在线播放 | 国产精品一区二区久久精品 | 亚洲精品久久久久久久蜜桃 | 国产黄色片免费在线观看 | 日韩高清久久 | 日日干 天天干 | 国产色视频网站 | 国产成人精品国内自产拍免费看 | 91| 成人福利在线播放 | 亚洲第一区在线播放 | 日本中文字幕在线 | 国产视频在线观看一区二区 | 日韩精品播放 | 国产成人亚洲精品自产在线 | 国产精品国产精品 | 五月婷婷综合在线视频 | 91精品视频免费看 | 亚洲视频精品 | 久久视频在线看 | 在线小视频 | 在线观看一区 | 亚洲美女在线一区 | 天天天干夜夜夜操 | 国产第一页在线观看 | 一区二区三区在线电影 | 久久久99精品免费观看app | 手机在线欧美 | 欧美日韩1区2区 | 日韩精品播放 | 久久久亚洲国产精品麻豆综合天堂 | 国产成本人视频在线观看 | 五月婷婷丁香 | 成人av影视 | 一本一本久久a久久精品综合小说 | 欧美极品少妇xxxxⅹ欧美极品少妇xxxx亚洲精品 | 久久99久国产精品黄毛片入口 | 亚州人成在线播放 | 亚洲日韩中文字幕在线播放 | 日本公妇在线观看 | 干天天 | 狠狠狠狠狠狠狠狠 | 国产不卡片 | 91日韩免费 | 久久精品一二三区 | 97超碰资源总站 | av一级免费 | 欧美日韩在线观看一区二区三区 | 国产日韩视频在线观看 | 国产激情小视频在线观看 | 日韩一区二区三 | 亚洲一级特黄 | 看污网站| 91精品一区二区三区久久久久久 | 欧美精品免费一区二区 | 综合天堂av久久久久久久 | 国产精品白浆视频 | 亚洲 成人 一区 | 伊人国产在线播放 | av超碰在线观看 | 日日操日日操 | 精品久久久成人 | 久久免费的精品国产v∧ | 爱爱av网| 久久久免费 | 黄色一级在线免费观看 | 99久久精品免费看国产一区二区三区 | 人人干网站 | 久草精品电影 | 91精品久久久久久久久 | 色婷婷免费| 九九热在线视频 | 中文字幕字幕中文 | 视频在线一区二区三区 | 亚洲精品综合一二三区在线观看 | 国产免费不卡av | 少妇av网| 久久成人麻豆午夜电影 | 国产原创在线视频 | 精品国内自产拍在线观看视频 | 久草久热 | 99麻豆久久久国产精品免费 | 久久精品一区二 | 国产一区二区三区四区在线 | 欧美色精品天天在线观看视频 | 亚洲精品成人av在线 | 一级成人免费视频 | 国产精品久久久久av福利动漫 | 国产在线欧美 | 视频精品一区二区三区 | 黄色三级在线观看 | 视频在线观看入口黄最新永久免费国产 | 午夜精品一区二区国产 | 国产亚洲精品福利 | 在线看成人片 | 午夜视频在线观看欧美 | 午夜三级毛片 | 九九免费精品视频在线观看 | 人人干干人人 | 91精品在线免费 | 国产午夜麻豆影院在线观看 | 五月婷av | 亚洲国产网站 | 国产小视频你懂的在线 | 毛片永久新网址首页 | 麻豆高清免费国产一区 | 亚洲小视频在线观看 | 色99在线| 超碰97免费观看 | 国产最新视频在线观看 | 玖玖在线观看视频 | 91精品国产欧美一区二区成人 | 国产精品21区 | 黄色成人影院 | 日韩中文字幕视频在线观看 | 成人一区二区三区在线 | 国产在线观看免费 | 亚洲综合小说 | 日本不卡123区 | 人人插人人玩 | 欧美日韩精品在线一区二区 | 久草在线资源观看 | 成人在线免费观看网站 | 九九热精品视频在线观看 | 国产另类av | 中文字幕网站 | www久久 | 午夜精品福利在线 | 91在线一区二区 | 最新日本中文字幕 | 久久精品1区 | 日韩在线观看一区 | 婷婷精品国产一区二区三区日韩 | 午夜免费福利片 | 亚洲欧美日本A∨在线观看 青青河边草观看完整版高清 | 日韩久久电影 | 久久91网| 九九热视频在线免费观看 | 国产精品视频免费看 | 美女网站在线观看 | 国产精品一区二区三区久久 | 日韩在线理论 | 精品国偷自产国产一区 | 国产婷婷一区二区 | 亚洲精品免费在线 | 在线视频欧美精品 | 日韩av中文字幕在线免费观看 | 四虎成人av | 丁香五月缴情综合网 | 热re99久久精品国产99热 | 久久久久久久久久久久久久免费看 | 天天射天天拍 | 日韩色一区二区三区 | 不卡电影一区二区三区 | 日日干夜夜操视频 | 99热免费在线 | 亚洲国产精品成人综合 | 99久久综合精品五月天 | 五月亚洲 | 亚洲专区中文字幕 | 美女福利视频一区二区 | 天天干天天操 | 香蕉视频最新网址 | 国产欧美中文字幕 | 国产精品免费在线 | 天天射成人| 精品xxx| 日日夜日日干 | 免费久久精品视频 | 免费网站在线 | 天天综合网国产 | 色婷婷视频网 | 亚洲欧美日韩国产精品一区午夜 | 日韩av偷拍 | 在线韩国电影免费观影完整版 | 免费在线观看污网站 | 久久免费精品国产 | 国产日本在线 | 久久电影网站中文字幕 | 国产看片免费 | 国产成人一区二区三区电影 | 亚洲精品在线免费看 | 欧美在线一二 | 日韩免费在线网站 | 国产成人av网 | 99久久综合国产精品二区 | 国产在线观看你懂得 | 骄小bbw搡bbbb揉bbbb | 国产精品麻| 99国产精品视频免费观看一公开 | 欧美在线视频二区 | 成人激情开心网 | 国产成人一区二区三区在线观看 | 久久综合九色综合97_ 久久久 | 日本黄色黄网站 | 欧美久久久一区二区三区 | 黄色亚洲大片免费在线观看 | 色网站国产精品 | 久久久久激情视频 | 久久成人18免费网站 | 丁香5月婷婷久久 | 国内久久看 | 亚洲第一色 | 天天综合五月天 | 国产成人精品免费在线观看 | 欧美激情在线网站 | 国产又黄又爽又猛视频日本 | 999精品| 亚洲综合网 | 成年免费在线视频 | 免费影视大全推荐 | 亚洲男模gay裸体gay | 91九色蝌蚪国产 | 久久九九精品久久 | 免费黄色网址大全 | 精品欧美一区二区在线观看 | 在线精品视频免费观看 | 天堂av在线7 | 在线免费国产视频 | 麻豆精品视频在线观看免费 | 欧美另类交人妖 | 人人澡人人澡人人 | 人人舔人人爱 | 在线视频福利 | 婷婷亚洲五月 | 久久婷婷一区二区三区 | 蜜臀av性久久久久蜜臀aⅴ四虎 | 最近中文字幕大全 | 最近中文字幕mv | 国产精品自产拍在线观看网站 | 黄色一级大片免费看 | 成人福利在线观看 | 欧美激情第八页 | 欧日韩在线视频 | 国产精品久久久久久久久久久久冷 | 97视频中文字幕 | 亚洲精品视频在线观看免费视频 | 欧美日韩一区久久 | 伊人色综合久久天天 | 日本 在线 视频 中文 有码 | 丁香婷婷激情国产高清秒播 | 国产第页 | 日韩久久久久久久久 | 在线观看视频福利 | 日韩一区二区三区免费电影 | 91久久国产自产拍夜夜嗨 | www免费网站在线观看 | 欧美色图视频一区 | 黄色免费在线看 | 96av视频 | 免费网站污 | 91麻豆看国产在线紧急地址 | 久久色中文字幕 | 伊人婷婷激情 | 色插综合| 99视频免费看 | 中文字幕第 | 国产亚洲日 | 在线观看黄色 | 日韩中文字幕a | 69国产盗摄一区二区三区五区 | 午夜三级毛片 | 91看片淫黄大片在线播放 | 欧美色图狠狠干 | av丝袜制服 | 日本在线观看中文字幕无线观看 | 在线观看资源 | 色片网站在线观看 | 久草免费看 | 亚洲午夜av久久乱码 | 免费高清无人区完整版 | 99热.com | 天堂av在线网址 | 在线免费日韩 | 日韩高清一 | 在线视频第一页 | 国产精品久久久久9999吃药 | 99r在线精品 | www久| 久久久久久久久久久免费视频 | 国产999精品久久久久久绿帽 | 最近更新好看的中文字幕 | 国产中年夫妇高潮精品视频 | av理论电影 | 成人在线一区二区 | 成人a级黄色片 | 午夜婷婷在线播放 | 日韩在线不卡视频 | 免费高清在线视频一区· | 国产vs久久 | 一区二区视频在线免费观看 | 亚洲丝袜一区二区 | 日韩在线电影一区二区 | 国产一区二区精品久久 | 日本福利视频在线 | 久久久久亚洲精品男人的天堂 | 天天干天天天 | 九九天堂| 亚洲乱亚洲乱妇 | 天天干,天天射,天天操,天天摸 | 免费91麻豆精品国产自产在线观看 | 五月婷婷在线视频观看 | 粉嫩av一区二区三区免费 | 国产成本人视频在线观看 | 91亚洲在线观看 | 亚洲欧美精品在线 | 成年人在线播放视频 | 日韩免费精品 | 精品久久久久久亚洲综合网 | 日韩夜夜爽 | 91亚洲精品久久久蜜桃 | 欧美精品免费一区二区 | 精品人人人 | 免费在线观看亚洲视频 | 九九热视频在线播放 | 国产1区2区3区精品美女 | 黄色国产成人 | 9热精品| 久久国产经典 | 天天色婷婷 | 久久夜色精品国产亚洲aⅴ 91chinesexxx | 有码中文字幕在线观看 | 精品在线观 | 久久婷婷色 | 久草影视在线 | 亚洲日韩中文字幕在线播放 | 九九在线高清精品视频 | 伊人五月 | 日韩免费一二三区 | 黄色aaa毛片 | 久久亚洲视频 | 亚洲一区欧美激情 | 亚洲理论在线观看电影 | 涩涩网站在线 | 国产女人40精品一区毛片视频 | 国产精品嫩草影院9 | 久草在线视频在线 | 又爽又黄又刺激的视频 | 手机在线免费av | 在线综合 亚洲 欧美在线视频 | 久久精品视频一 | 久久伊人八月婷婷综合激情 | 在线观看亚洲国产 | 久久人人爽人人爽人人片 | 88av网站 | 婷婷在线免费观看 | aaa毛片视频 | 国产精品永久久久久久久www | 韩国精品视频在线观看 | a级国产乱理论片在线观看 特级毛片在线观看 | 中国一级片在线观看 | 亚洲成熟女人毛片在线 | 伊人中文在线 | 日韩国产精品久久久久久亚洲 | 成人羞羞免费 | 一区二区观看 | 一区二区三区三区在线 | 午夜aaaa| 成人影视片 | 天天射天天干天天操 | 夜添久久精品亚洲国产精品 | 国产中文字幕大全 | 青青草视频精品 | 亚洲播放一区 | 啪啪肉肉污av国网站 | 在线看中文字幕 | 久久这里只精品 | 日韩电影一区二区在线 | 日韩欧美精选 | 久久人人爽人人爽 | 人人玩人人爽 | 香蕉网在线 | 六月丁香婷婷久久 | 97视频一区 | www.91成人| 天天射天天操天天 | 欧美天堂久久 | 91免费的视频在线播放 | 96久久久 | 亚洲免费公开视频 | a级片在线播放 | 成人在线观看资源 | 91精品久久久久久综合乱菊 | 色婷婷88av视频一二三区 | 国产精品九九九九九九 | 超碰免费在线公开 | 免费av的网站| 伊人伊成久久人综合网站 | 九九免费精品视频在线观看 | 成人一区二区三区中文字幕 | 亚洲va欧美va人人爽春色影视 | 精品欧美一区二区精品久久 | 日韩成人精品一区二区三区 | 成人动图| 狠狠躁日日躁狂躁夜夜躁 | 日韩av一区二区三区 | 久久99久久99精品免观看粉嫩 | 91精品一 | 在线观看视频一区二区 | 日韩激情一二三区 | 精品久久久国产 | av一级网站 | 久草视频在线新免费 | 三级黄免费看 | 久久成人高清视频 | 伊人开心激情 | 久久99热这里只有精品国产 | 丁香 久久 综合 | 2023国产精品自产拍在线观看 | 天堂在线一区二区 | a黄在线观看 | 久久综合9988久久爱 | 九九热在线观看 | 91亚洲精| 久99视频| 亚洲特级毛片 | 91精品视频播放 | 91精品视频网站 | 麻豆视频www | 高清日韩一区二区 | 欧美韩日视频 | 久久精品影视 | 香蕉视频免费在线播放 | 成人在线免费观看视视频 | 国产原创在线 | 又黄又刺激 | 精品在线观看一区二区 | 在线国产视频一区 | 在线看黄网站 | 欧美成人黄色 | 亚洲一区欧美激情 | 在线99| 国产精品一区电影 | 97中文字幕 | 欧洲黄色片 | 97超级碰碰 | 黄色一级免费 | 久久久久久久久久亚洲精品 | 最新av网址在线观看 | 探花视频在线观看免费 | 日本久久久久 | 亚洲伦理电影在线 | 色综合久久中文综合久久牛 | 精品欧美一区二区在线观看 | 激情黄色一级片 | 久久综合狠狠综合 | 97电影手机| 91视频在线免费下载 | 久久无码精品一区二区三区 | 久久夜色电影 | 97视频免费在线观看 | 亚洲精品国产精品久久99 | 一区二区三区免费网站 | 91视频在线免费看 | 久久久受www免费人成 | 国产视频一区二区在线观看 | 久久久久久激情 | 国内揄拍国内精品 | 久亚洲精品 | 在线观看视频中文字幕 | 在线观看91精品国产网站 | 国产无套视频 | www.狠狠插.com| 亚洲 综合 专区 | 五月天中文字幕mv在线 | 成人在线免费观看视视频 | 2020天天干夜夜爽 | 亚洲欧美少妇 | 亚洲黄色一级电影 | 黄色在线看网站 | 日韩久久视频 | 操操综合网 | 人人看97 | 在线观看 国产 | 在线免费视 | 五月婷婷深开心 | 国产剧情一区二区在线观看 | 国产成人精品国内自产拍免费看 | 国内亚洲精品 | 亚洲日本一区二区在线 | 五月天,com| 超级碰视频 | 精品国产亚洲日本 | 国产亚洲视频在线 | 久久视影| 国产精品毛片一区二区 | 国产成人亚洲在线观看 | 欧美国产日韩一区二区三区 | 97精品在线 | 国产精品一区二区久久久 | 一区二区三区精品在线视频 | 免费在线观看av网址 | 欧美一区二区三区在线 | 97超碰中文 | 欧美黄色软件 | 精品欧美乱码久久久久久 | 国产小视频你懂的 | 91精品资源 | 天天色成人网 | 久久香蕉一区 | 国产黄大片 | 色综合久久久久综合99 | 日韩在线视频免费看 | 黄色片网站免费 | 天堂av免费看 | 久久久久成 | 91麻豆精品国产91久久久久久 | 久久午夜色播影院免费高清 | 91精品国产成人观看 | 99热999| 91麻豆.com| 久久久国际精品 | 国产精品h在线观看 | 在线免费色 | 九九视频一区 | 日韩视频一区二区三区在线播放免费观看 | 婷婷九月丁香 | 玖操| 成人毛片一区二区三区 | 97av.com| 国产黄色在线看 | 91av视频免费观看 | 伊人天堂网 | 亚洲精品乱码白浆高清久久久久久 | 美女网站在线 | 字幕网av| 丁香婷婷在线 | 国产高清av免费在线观看 | 免费国产在线观看 | av色网站 | 草久久影院 | 一区二区三区久久精品 | 亚洲精品网页 | 91久久精品日日躁夜夜躁国产 | 黄色毛片视频 | 夜夜躁狠狠躁日日躁视频黑人 | 99久久精品免费看国产一区二区三区 | 欧美最猛性xxxxx亚洲精品 | 亚洲精品一区二区三区高潮 | av日韩中文 | 久久天天躁夜夜躁狠狠85麻豆 | 日本在线观看视频一区 | 亚洲精品激情 | 久久成人免费电影 | 久草在线电影网 | 中文字幕av在线不卡 | 精品一区久久 | av片在线观看 | 天天操天天色综合 | 成人免费看片98欧美 | 久久国产精品久久久 | 69视频永久免费观看 | 久久有精品 | 免费在线观看av网址 | 日韩一级片观看 | 99精品视频精品精品视频 | 久久草| 免费视频国产 | 久久综合婷婷国产二区高清 | 久久艹艹 | 中文在线字幕免费观看 | 免费国产ww | 精品福利视频在线观看 | 看全黄大色黄大片 | 免费看国产黄色 | 涩涩在线 | 黄色小说18 | 免费a网站 | 永久免费观看视频 | 亚洲永久精品在线 | 最近中文字幕免费 | 天天曰天天爽 | 日韩肉感妇bbwbbwbbw | 91精品入口 | 97免费| 一区二区免费不卡在线 | 欧美日韩不卡在线 | 国产xx视频 | 亚洲永久精品在线 | 国产亚洲欧美在线视频 | 日韩精品第一区 | 亚洲欧美成人网 | 亚洲欧美视频在线播放 | 日韩综合在线观看 | 精品国内自产拍在线观看视频 | 91亚洲精品久久久蜜桃借种 | 亚洲人人网 | 亚洲午夜精品久久久久久久久 | 91精品免费看 | 九九99靖品 | 久久超碰免费 | 一区二区三区电影 | 国产91在 | 国产精品一区二区在线 | 欧洲精品码一区二区三区免费看 | 精品久久毛片 | 6080yy午夜一二三区久久 | 在线免费观看麻豆 | 日韩在线免费小视频 | 欧美精品久久久久久久久久 | 97品白浆高清久久久久久 | 国产中出在线观看 | 在线欧美小视频 | 天天操天天综合网 | 国产精品毛片一区视频播 | 国产精品一区二区精品视频免费看 | 成人小视频在线播放 | 国产 日韩 欧美 在线 | 亚洲伦理电影在线 | 亚洲精品免费在线视频 | 香蕉久草 | 免费黄a| 91在线91| 久久999久久 | 手机看片1042| 五月婷婷六月丁香 | 91精品久久久久久久久久入口 | 国产经典av | 国产精品少妇 | 久久国产精彩视频 | 一级做a爱片性色毛片www | 久久精品网站免费观看 | 在线观看黄色大片 | 天天干人人 | 探花视频在线观看免费版 | 久久亚洲在线 | 国产精品入口久久 | 午夜aaaa | 成人a免费 | 91在线一区 | 日本精品在线看 | 久久精品99久久久久久2456 | 99久热精品 | av色综合网 | 精品视频在线免费观看 | 激情综合站 | 成人在线免费看视频 | 日韩另类在线 | 天天干天天做 | 国产91精品一区二区麻豆亚洲 | 国产精品免费久久久久久久久久中文 | 久久精品视频网 | 成人黄色电影在线观看 | 国产精品少妇 | 最新久久免费视频 | 97电影在线观看 | 成人av网页| 99精品在线视频观看 | 伊人色综合久久天天网 | 日韩在线观看一区二区 | 青青河边草观看完整版高清 | 六月激情久久 | 亚洲手机天堂 | 国产又粗又长又硬免费视频 | 免费亚洲一区二区 | 国产精品一区二区久久精品 | 婷婷四房综合激情五月 | 国产伦理一区二区 | 玖玖爱在线观看 | 久久免费观看视频 | 麻豆一区二区 | 精品成人a区在线观看 | 亚州黄色一级 | 日韩免费中文 | 天天玩天天干天天操 | 日日爽天天 | 九九九九热精品免费视频点播观看 | 欧美日韩视频免费 | 久久97超碰 | 国产精品99免费看 | 亚洲国产欧美在线看片xxoo | 黄a在线 | 久久亚洲欧美 | 精品一二三四五区 | 日日添夜夜添 | 欧美精品一区二区免费 | 黄色网www| 99免费精品 | 超碰在线人人草 | 国产色在线观看 | 高潮毛片无遮挡高清免费 | 欧美久久久影院 | 日日干,天天干 | 狠狠干五月天 | 九九免费精品 | 国产精品美女久久久久久 | 欧美国产日韩一区二区 | 伊人五月天婷婷 | 亚洲最新av在线网站 | 中文字幕在线播放一区 | 欧美日韩精品在线一区二区 | 中文字幕欧美日韩va免费视频 | 国产一级二级在线播放 | 最新av网址在线 | 久久理论影院 | 91免费版在线观看 | 欧美日韩精品免费观看 | 中文av不卡 | 最近中文字幕第一页 | 日韩区在线观看 | 欧美在一区 | 91精品国产成人 | 国产福利一区二区在线 | 奇米网444| 米奇狠狠狠888 | 婷婷综合成人 | 国产视频亚洲 | 在线视频区 | 亚洲精品久 | 中文字幕在线观看视频一区二区三区 | 99av国产精品欲麻豆 | 成人一区电影 | 久久久久久久久久久成人 | 中文字幕免费高清在线观看 | 二区三区中文字幕 | 超碰午夜 | 欧美巨乳波霸 | 国产999精品久久久久久 | 欧亚日韩精品一区二区在线 | 日本三级香港三级人妇99 | av高清网站在线观看 | 777xxx欧美 | av电影 一区二区 | 91女子私密保健养生少妇 | 亚洲国内精品在线 | 日韩精品一区二区三区视频播放 | 五月激情婷婷丁香 | 日韩一级网站 | 麻豆高清免费国产一区 | 91插插插免费视频 | 国内视频在线 | 又紧又大又爽精品一区二区 | 国产黄色视 | 精品乱码一区二区三四区 | 日韩网站在线播放 | 亚洲国产成人在线播放 | 国产不卡精品 | 欧美专区亚洲专区 | 日韩在线视频看看 | 99热精品国产一区二区在线观看 | 一区二区 不卡 | 五月天婷婷狠狠 | 亚洲全部视频 | 国产一区成人在线 | 亚洲六月丁香色婷婷综合久久 | 日韩激情视频在线观看 | 久久视频6 | 又黄又爽的视频在线观看网站 | 一区二区三区四区五区在线视频 | 91影视成人 | 久久永久免费视频 | 一区二区三区在线免费观看 | av线上看| 天天精品视频 | 岛国精品一区二区 | av在线看网站 | 96亚洲精品久久久蜜桃 | 久久久免费网站 | 六月丁香社区 | 国产成人精品免高潮在线观看 | 狠狠网站 | 色吊丝av中文字幕 | 综合久久久久久久久 | 国产精品久久99精品毛片三a | www.伊人网| 免费在线国产视频 | 毛片网站在线观看 | 久草网站 | 色综合色综合色综合 | 精品美女久久久久久免费 | 99视频国产精品免费观看 | 日本狠狠干 | 久久午夜影院 | 五月天.com| 久久久性| 奇米网777| 伊人狠狠操 | 成人在线视频一区 | 日韩欧美高清一区二区 | 99久久er热在这里只有精品66 | 激情文学综合丁香 | 久久久久久久久久久久电影 | 91自拍91| 久久99国产视频 | 日本久久精品 | 九色91在线视频 | 99国产免费网址 | 精品1区二区 | 国产精品不卡在线观看 | 国产精品视频资源 | 久久精品视频在线看 | 国产亚洲一区二区在线观看 | 91在线网站 | 91免费日韩 | 麻豆一区二区三区视频 | 99r国产精品 | 五月婷婷狠狠 | 国产成人一区二区三区影院在线 | 日韩成人看片 | 99精彩视频在线观看免费 | 亚洲天堂免费视频 | av在线播放国产 | 在线观看亚洲专区 | 激情婷婷网 | 日韩久久精品一区 | 日日夜夜精品视频天天综合网 | 久久久久综合精品福利啪啪 | 99视频精品全部免费 在线 | 黄色大片入口 | 免费日韩精品 | 亚洲国产剧情av | 成人午夜免费剧场 | 一区二区不卡高清 | 婷婷丁香在线观看 | 亚洲高清在线精品 | 欧美韩国日本在线观看 | 欧美伦理电影一区二区 | 久久精品123 | www.久久色 | 免费在线激情电影 | 免费男女羞羞的视频网站中文字幕 | 日本中文字幕观看 | 久久免费视频一区 | 国产精品一区二区无线 | 亚洲成人av在线电影 | 欧美综合干| 麻豆mv在线观看 | 亚洲男男gaygay无套 | 日韩中文在线电影 | 天堂麻豆| 天天超碰 | www.五月激情.com | 97网在线观看 | 免费麻豆 | 久国产在线播放 | 国产精品美女久久久网av | 亚洲精品网址在线观看 | 热久久最新地址 | 久久综合偷偷噜噜噜色 | 在线中文字母电影观看 | 国产一区二区久久久久 | 五月婷婷六月丁香 | 久久精品视频日本 | 婷婷综合激情 | 国产精品正在播放 | 日日夜夜天天干 | 天堂网av 在线 | 免费国产一区二区视频 | 黄网av在线 | 国产精品乱码久久 | 丁香高清视频在线看看 | 国产五月色婷婷六月丁香视频 | 亚洲一区二区麻豆 | 黄色精品一区二区 | 毛片网在线观看 | 在线观看岛国av | 五月婷婷婷婷婷 | av黄色亚洲| 丁香久久久 | 人人澡人人澡人人 | 日韩中文字幕视频在线观看 | 免费中文字幕视频 | 国产一级片免费播放 | 天天操天天操天天操天天操 | 91视频在线观看下载 | 午夜精品一区二区三区在线观看 | 国产一级特黄电影 | 日韩视频一区二区 | 色中射| 亚洲欧美日韩一级 | 五月综合 | 91精品一区二区三区蜜臀 | 在线看黄色的网站 | 九九久久影院 | 精品美女久久久久久免费 | 久久在草| 99久久影院 | 国产专区在线 | 久久只有精品 | 国内精品久久久久久久久久 | 久久精品一区二区三 | 国产精品综合久久 | 狠狠精品 | 91精品综合在线观看 | 91成人在线免费观看 | 亚洲精品久久视频 | 2019精品手机国产品在线 | 日韩精品久久久免费观看夜色 | 欧美另类交在线观看 | 久久国产精品一区二区三区四区 | 日韩av二区| 亚洲激情校园春色 | 欧美男同视频网站 | 免费看av片网站 | 中文字幕在线播放一区 | 黄色aa久久 | 狠狠精品| 激情综合站| 中文字幕中文字幕在线一区 | 亚洲欧美视频网站 | 亚洲免费av片 | 欧美午夜精品久久久久久浪潮 | 国产又粗又硬又爽视频 | 99精品久久久久久久 | 久久女同性恋中文字幕 | 日韩欧美一区二区在线播放 | 国产爽视频 | 国产一区二区三区视频在线 | 最新午夜 | 精品视频成人 | 色丁香久久 | 九九综合久久 | 特黄特色特刺激视频免费播放 | 久草资源在线 | 在线看v片成人 | 成人免费视频视频在线观看 免费 | 五月天激情综合 | 五月天视频网站 | 国产字幕在线观看 | 色婷婷国产精品 | 国产精品亚洲视频 | 成年人免费av网站 | 91福利国产在线观看 | 久久99久久99精品免费看小说 | 国产精品久久久久久五月尺 | 欧美成人区 | 国产最新91 | 国产精品久久久久久一区二区三区 | 日韩精品免费在线 | 国模精品在线 | 久久久久久高潮国产精品视 | 91亚洲精品久久久 | 97人人澡人人添人人爽超碰 | 美女视频黄免费的 | 欧美日韩网址 | 日韩三级免费 | 麻豆精品视频 | 天天干天天草 | 97视频久久久 | 欧美色图狠狠干 | 国产精品嫩草影院9 | 日日噜噜噜噜夜夜爽亚洲精品 | 五月婷婷视频在线 | 成人av电影免费观看 | 免费麻豆视频 | 爱爱一区 | 中文字幕一区二区三区在线观看 | 玖草在线观看 | 天天天天射| 韩国av一区| 美女国内精品自产拍在线播放 | 一级片视频免费观看 | 日日操操| 免费一级片久久 | 99免费在线观看视频 | 中文字幕在线观看网 | 欧美一区二区三区不卡 | 亚洲午夜电影网 | 日韩av电影网站在线观看 | 国产在线欧美 | 国产精品久久久久国产a级 激情综合中文娱乐网 | 韩日电影在线观看 | 精品国产成人av在线免 | 天天天干| 黄色片免费电影 | 91视频免费视频 | 涩涩网站免费 | 91精品国产99久久久久久红楼 | 日韩欧美有码在线 | 久久99热这里只有精品 | av成人亚洲| 日日综合网| 伊人五月天综合 | 日韩在线观看三区 | 精品久久综合 | 五月天色综合 | 久久久久久久av | 免费在线91 | 婷婷去俺也去六月色 | 国产麻豆视频网站 | 久久免费试看 | 香蕉视频在线视频 | 亚洲精品www | 国产午夜麻豆影院在线观看 |