日韩av黄I国产麻豆传媒I国产91av视频在线观看I日韩一区二区三区在线看I美女国产在线I麻豆视频国产在线观看I成人黄色短片

歡迎訪問 生活随笔!

生活随笔

當前位置: 首頁 > 编程资源 > 编程问答 >内容正文

编程问答

DL-tudo

發布時間:2023/12/16 编程问答 46 豆豆
生活随笔 收集整理的這篇文章主要介紹了 DL-tudo 小編覺得挺不錯的,現在分享給大家,幫大家做個參考.

本文來自CVer公眾號的深度學習面試寶典,mark以便初學DL時邊查看重難點和備忘錄tudo。

文章目錄

  • 深度學習
    • 神經網絡中的Epoch、Iteration、Batchsize
    • 反向傳播(BP)
    • CNN本質和優勢
    • 鞍點的定義和特點?
    • 神經網絡數據預處理方法有哪些?
    • 神經網絡怎樣進行參數初始化?
    • 卷積
      • 卷積的反向傳播過程
    • CNN 模型所需的計算力(flops)和參數(parameters)數量是怎么計算的?
    • 池化(Pooling)
      • 池化層怎么接收后面傳過來的損失?
      • 平均池化(average pooling)
      • 最大池化(max pooling)
    • 感受野
      • 感受野計算
      • 卷積神經網絡的感受野
    • 權重初始化方法
      • Xavier
    • 正則化方法
    • Batch Normalization(BN)
      • BN 原理
      • 手寫 BN
      • BN 可以防止過擬合么?為什么
      • BN 有哪些參數?
      • BN 的反向傳播推導
      • BN 在訓練和測試的區別?
    • Weight Normalization(WN)
    • Layer Normalization(LN)
    • Instance Normalization(IN)
    • Group Normalization(GN)
      • BN、LN、WN、IN和GN的區別
    • 優化算法
      • 梯度下降法
      • mini-batch梯度下降法
      • 隨機梯度下降法(SGD)
        • SGD每步做什么,為什么能online learning?
      • 動量梯度下降法(Momentum)
      • RMSprop
      • Adagrad
      • Adam
        • Adam 優化器的迭代公式
    • 激活函數
      • Sigmoid
        • Sigmoid用作激活函數時,分類為什么要用交叉熵損失,而不用均方損失?
      • tanh
      • ReLU
        • ReLU 激活函數為什么比sigmoid和tanh好?
        • ReLU 激活函數為什么能解決梯度消失問題?
        • ReLU 有哪些變體?
    • Dropout
      • Dropout 基本原理
      • Dropout 如何實現?
      • Drop 在訓練和測試的區別
    • 損失函數(Loss)
      • Cross Entropy Loss(CE)
      • Hinge Loss
      • Focal Loss
    • 1*1 卷積有什么作用?
    • AlexNet
    • VGG
    • ResNet
      • ResNet為什么不用Dropout?
      • 為什么 ResNet 不在一開始就使用residual block,而是使用一個7×7的卷積?
      • 什么是Bottlenet layer?
      • ResNet如何解決梯度消失?
      • ResNet網絡越來越深,準確率會不會提升?
    • ResNet v2
      • ResNet v1 與 ResNet v2的區別
      • ResNet v2 的 ReLU 激活函數有什么不同?
    • ResNeXt
    • Inception系列(V1-V4)
      • InceptionV1
      • InceptionV2
      • InceptionV3
      • InceptionV4
    • DenseNet
      • 為什么 DenseNet 比 ResNet 好?
      • 為什么 DenseNet 比 ResNet 更耗顯存?
    • SE-Net
      • Squeeze-Excitation結構是怎么實現的?
    • FCN
    • U-Net
    • DeepLab 系列
    • 邊框回顧(Bounding-Box Regression)
    • 反卷積(deconv)/轉置卷積(trans)
    • 空洞卷積(dilated/Atrous conv)
    • Pooling層原理
    • depthwise卷積加速比推導
    • 為什么降采用使用max pooling,而分類使用average pooling
    • max pooling如何反向傳播
    • 反卷積
    • 組卷積(group convolution)
    • 交錯組卷積(Interleaved group convolutions,IGC)
    • 空洞/擴張卷積(Dilated/Atrous Convolution)
    • 轉置卷積(Transposed Convolutions/deconvlution)
    • Group Normalization
    • Xception
    • SENet
    • SKNet
    • GCNet
    • Octave Convolution
    • MobileNet 系列(V1-V3)
      • MobileNetV1
      • MobileNetV2
      • MobileNetV3
      • MobileNet系列為什么快?各有多少層?多少參數?
      • MobileNetV1、MobileNetV2和MobileNetV3有什么區別
      • MobileNetv2為什么會加shotcut?
      • MobileNet V2中的Residual結構最先是哪個網絡提出來的?
    • ShuffleNet 系列(V1-V2++)
      • ShuffleNetV1
      • ShuffleNetV2
    • IGC 系列(V1-V3)
    • 深度可分離網絡(Depth separable convolution)
    • 學習率如何調整
    • 神經網絡的深度和寬度作用
    • 網絡壓縮與量化
    • Batch Size
    • BN和Dropout在訓練和測試時的差別
    • 深度學習調參有哪些技巧?
    • 為什么深度學習中的模型基本用3x3和5x5的卷積(奇數),而不是2x2和4x4的卷積(偶數)?
    • 深度學習訓練中是否有必要使用L1獲得稀疏解?
    • EfficientNet
    • 如何理解歸一化(Normalization)對于神經網絡(深度學習)的幫助?
    • 多標簽分類怎么解決?
    • TODO
    • Reference

深度學習

神經網絡中的Epoch、Iteration、Batchsize

神經網絡中epoch與iteration是不相等的

  • batchsize:中文翻譯為批大小(批尺寸)。在深度學習中,一般采用SGD訓練,即每次訓練在訓練集中取batchsize個樣本訓練;

  • iteration:中文翻譯為迭代,1個iteration等于使用batchsize個樣本訓練一次;一個迭代 = 一個正向通過+一個反向通過

  • epoch:迭代次數,1個epoch等于使用訓練集中的全部樣本訓練一次;一個epoch = 所有訓練樣本的一個正向傳遞和一個反向傳遞

舉個例子,訓練集有1000個樣本,batchsize=10,那么:訓練完整個樣本集需要:100次iteration,1次epoch。

參考資料

  • 神經網絡中的Epoch、Iteration、Batchsize
  • 神經網絡中epoch與iteration相等嗎

反向傳播(BP)

  • TODO

參考資料

  • 一文搞懂反向傳播算法

CNN本質和優勢

局部卷積(提取局部特征)

權值共享(降低訓練難度)

Pooling(降維,將低層次組合為高層次的特征)

多層次結構

鞍點的定義和特點?

  • TODO

神經網絡數據預處理方法有哪些?

  • TODO

神經網絡怎樣進行參數初始化?

  • TODO

卷積

  • TODO

參考資料

  • Feature Extraction Using Convolution

  • convolution

  • 理解圖像卷積操作的意義

  • 關于深度學習中卷積核操作

卷積的反向傳播過程

  • TODO

參考資料

  • Notes on Convolutional Neural Network

  • Deep Learning論文筆記之(四)CNN卷積神經網絡推導和實現

  • 反向傳導算法

  • Deep learning:五十一(CNN的反向求導及練習)

  • 卷積神經網絡(CNN)反向傳播算法

  • 卷積神經網絡(CNN)反向傳播算法公式詳細推導

  • 全連接神經網絡中反向傳播算法數學推導

  • 卷積神經網絡(CNN)反向傳播算法推導

CNN 模型所需的計算力(flops)和參數(parameters)數量是怎么計算的?

對于一個卷積層,假設其大小為 (其中c為#input channel, n為#output channel),輸出的feature map尺寸為 ,則該卷積層的

  • paras =[外鏈圖片轉存失敗,源站可能有防盜鏈機制,建議將圖片保存下來直接上傳(img-SDrMWW9E-1626030698000)(https://www.zhihu.com/equation?tex=n+%5Ctimes+%28h+%5Ctimes+w+%5Ctimes+c+%2B+1%29)]

  • FLOPs = [外鏈圖片轉存失敗,源站可能有防盜鏈機制,建議將圖片保存下來直接上傳(img-8TYfp2Z6-1626030698002)(https://www.zhihu.com/equation?tex=H%27+%5Ctimes+W%27+%5Ctimes+n+%5Ctimes%28h+%5Ctimes+w+%5Ctimes+c+%2B+1%29)]

  • TODO

參考資料

  • CNN 模型所需的計算力(flops)和參數(parameters)數量是怎么計算的?
  • CNN中parameters和FLOPs計算
  • FLOPS理解
  • PyTorch-OpCounter

池化(Pooling)

平均池化(Mean Pooling)

mean pooling的前向傳播就是把一個patch中的值求取平均來做pooling,那么反向傳播的過程也就是把某個元素的梯度等分為n份分配給前一層,這樣就保證池化前后的梯度(殘差)之和保持不變,還是比較理解的,圖示如下

最大池化(Max Pooling)

max pooling也要滿足梯度之和不變的原則,max pooling的前向傳播是把patch中最大的值傳遞給后一層,而其他像素的值直接被舍棄掉。那么反向傳播也就是把梯度直接傳給前一層某一個像素,而其他像素不接受梯度,也就是為0。所以max pooling操作和mean pooling操作不同點在于需要記錄下池化操作時到底哪個像素的值是最大,也就是max id,這個可以看caffe源碼的pooling_layer.cpp,下面是caffe框架max pooling部分的源碼

// If max pooling, we will initialize the vector index part.if (this->layer_param_.pooling_param().pool() == PoolingParameter_PoolMethod_MAX && top.size() == 1){max_idx_.Reshape(bottom[0]->num(), channels_, pooled_height_,pooled_width_);}

參考資料

  • 如何理解CNN中的池化?
  • 深度學習筆記(3)——CNN中一些特殊環節的反向傳播

池化層怎么接收后面傳過來的損失?

  • TODO

平均池化(average pooling)

  • TODO

最大池化(max pooling)

  • TODO

感受野

感受野計算

  • TODO

參考資料

  • 卷積神經網絡物體檢測之感受野大小計算
  • 如何計算感受野(Receptive Field)——原理
  • Computing Receptive Fields of Convolutional Neural Networks

卷積神經網絡的感受野

  • TODO

參考資料

  • 卷積神經網絡的感受野

權重初始化方法

  • TODO

Xavier

  • TODO

正則化方法

  • 參數范數懲罰
  • L2參數正則化
  • L1參數正則化
  • L1正則化和L2正則化的區別
  • 數據集增強
  • 噪音的魯棒性
  • 向輸出目標注入噪聲
  • 半監督學習
  • 多任務學習
  • 提前終止
  • 參數綁定和共享
  • 稀疏表示
  • 集成化方法
  • 參考資料

    • 正則化方法

    Batch Normalization(BN)

    BN 原理

    • TODO

    參考資料

    • Batch Normalization原理與實戰

    手寫 BN

    • TODO

    BN 可以防止過擬合么?為什么

    • TODO

    BN 有哪些參數?

    • TODO

    BN 的反向傳播推導

    • TODO

    BN 在訓練和測試的區別?

    • TODO

    Weight Normalization(WN)

    • TODO

    Layer Normalization(LN)

    • TODO

    Instance Normalization(IN)

    • TODO

    Group Normalization(GN)

    • TODO

    BN、LN、WN、IN和GN的區別

    • TODO

    參考資料

    • 深度學習中的五種歸一化(BN、LN、IN、GN和SN)方法簡介

    • BatchNormalization、LayerNormalization、InstanceNorm、GroupNorm、SwitchableNorm總結

    優化算法

    • 隨機梯度下降(SGD)
    • Mini-Batch
    • 動量(Momentum)
    • Nesterov 動量
    • AdaGrad
    • AdaDelta
    • RMSProp
    • Adam
    • Adamax
    • Nadam
    • AMSGrad
    • AdaBound

    參考資料

    • 《Deep Learning》第八章:深度模型中的優化

    • 從 SGD 到 Adam —— 深度學習優化算法概覽(一)

    • Adam 究竟還有什么問題 —— 深度學習優化算法概覽(二)

    • An overview of gradient descent optimization algorithms

    梯度下降法

    • TODO

    mini-batch梯度下降法

    • TODO

    隨機梯度下降法(SGD)

    SGD每步做什么,為什么能online learning?

    • TODO

    動量梯度下降法(Momentum)

    • TODO

    參考資料

    • 簡述動量Momentum梯度下降

    RMSprop

    SdW=βSdW+(1?β)dW2S_{dW}=\beta S_{dW}+\left ( 1-\beta \right )dW^{2} SdW?=βSdW?+(1?β)dW2

    Sdb=βSdb+(1?β)db2S_{db}=\beta S_{db}+\left ( 1-\beta \right )db^{2} Sdb?=βSdb?+(1?β)db2

    W=W?αdWSdW,b=b?αdbSdbW=W-\alpha\frac{dW}{\sqrt{S_{dW}}}, b=b-\alpha\frac{db}{\sqrt{S_{db}}} W=W?αSdW??dW?,b=b?αSdb??db?

    • TODO

    Adagrad

    • TODO

    Adam

    Adam算法結合了Momentum和RMSprop梯度下降法,是一種極其常見的學習算法,被證明能有效適用于不同神經網絡,適用于廣泛的結構。
    vdW=β1vdW+(1?β1)dWv_{dW}=\beta_{1} v_{dW}+\left ( 1-\beta_{1} \right )dW vdW?=β1?vdW?+(1?β1?)dW

    vdb=β1vdb+(1?β1)dbv_{db}=\beta_{1} v_{db}+\left ( 1-\beta_{1} \right )db vdb?=β1?vdb?+(1?β1?)db

    SdW=β2SdW+(1?β2)dW2S_{dW}=\beta_{2} S_{dW}+\left ( 1-\beta_{2} \right )dW^{2} SdW?=β2?SdW?+(1?β2?)dW2

    Sdb=β2Sdb+(1?β2)db2S_{db}=\beta_{2} S_{db}+\left ( 1-\beta_{2} \right )db^{2} Sdb?=β2?Sdb?+(1?β2?)db2

    vdWcorrected=vdW1?β1tv_{dW}^{corrected}=\frac{v_{dW}}{1-\beta_{1}^{t}} vdWcorrected?=1?β1t?vdW??

    vdbcorrected=vdb1?β1tv_{db}^{corrected}=\frac{v_{db}}{1-\beta_{1}^{t}} vdbcorrected?=1?β1t?vdb??

    SdWcorrected=SdW1?β2tS_{dW}^{corrected}=\frac{S_{dW}}{1-\beta_{2}^{t}} SdWcorrected?=1?β2t?SdW??

    Sdbcorrected=Sdb1?β2tS_{db}^{corrected}=\frac{S_{db}}{1-\beta_{2}^{t}} Sdbcorrected?=1?β2t?Sdb??

    W:=W?avdWcorrectedSdWcorrected+εW:=W-\frac{av_{dW}^{corrected}}{\sqrt{S_{dW}^{corrected}}+\varepsilon } W:=W?SdWcorrected??+εavdWcorrected??

    超參數:
    α,β1,β2,ε\alpha ,\beta _{1},\beta_{2},\varepsilon α,β1?,β2?,ε

    α,β1,β2,ε\alpha ,\beta _{1},\beta_{2},\varepsilon α,β1?,β2?,ε

    • TODO

    Adam 優化器的迭代公式

    • TODO

    激活函數

    • TODO

    參考資料

    • What is activate function?
    • 資源 | 從ReLU到Sinc,26種神經網絡激活函數可視化

    Sigmoid

    • TODO

    Sigmoid用作激活函數時,分類為什么要用交叉熵損失,而不用均方損失?

    • TODO

    tanh

    • TODO

    ReLU

    • TODO

    ReLU 相關變體

    ReLU 激活函數為什么比sigmoid和tanh好?

    • TODO

    ReLU 激活函數為什么能解決梯度消失問題?

    • TODO

    ReLU 有哪些變體?

    • TODO

    Dropout

    Dropout 基本原理

    • TODO

    參考資料

    • 理解dropout

    Dropout 如何實現?

    • TODO

    Drop 在訓練和測試的區別

    • TODO

    損失函數(Loss)

    • TODO

    Cross Entropy Loss(CE)

    • TODO

    Hinge Loss

    • TODO

    Focal Loss

    • TODO

    1*1 卷積有什么作用?

    • TODO

    AlexNet

    • 使用ReLU激活函數
    • Dropout
    • 數據增廣

    先給出AlexNet的一些參數和結構圖:

    卷積層:5層

    全連接層:3層

    深度:8層

    參數個數:60M

    神經元個數:650k

    分類數目:1000類

    參考資料

    AlexNet

    VGG

    《Very Deep Convolutional Networks for Large-Scale Image Recognition》

    • arXiv:https://arxiv.org/abs/1409.1556
    • intro:ICLR 2015
    • homepage:http://www.robots.ox.ac.uk/~vgg/research/very_deep/

    VGG 是Oxford的Visual Geometry Group的組提出的(大家應該能看出VGG名字的由來了)。該網絡是在ILSVRC 2014上的相關工作,主要工作是證明了增加網絡的深度能夠在一定程度上影響網絡最終的性能。VGG有兩種結構,分別是VGG16和VGG19,兩者并沒有本質上的區別,只是網絡深度不一樣。

    VGG16相比AlexNet的一個改進是采用連續的幾個3x3的卷積核代替AlexNet中的較大卷積核(11x11,7x7,5x5)。對于給定的感受野(與輸出有關的輸入圖片的局部大小),采用堆積的小卷積核是優于采用大的卷積核,因為多層非線性層可以增加網絡深度來保證學習更復雜的模式,而且代價還比較小(參數更少)

    簡單來說,在VGG中,使用了3個3x3卷積核來代替7x7卷積核,使用了2個3x3卷積核來代替5*5卷積核,這樣做的主要目的是在保證具有相同感知野的條件下,提升了網絡的深度,在一定程度上提升了神經網絡的效果。

    比如,3個步長為1的3x3卷積核的一層層疊加作用可看成一個大小為7的感受野(其實就表示3個3x3連續卷積相當于一個7x7卷積),其參數總量為 3x(9xC^2) ,如果直接使用7x7卷積核,其參數總量為 49xC^2 ,這里 C 指的是輸入和輸出的通道數。很明顯,27xC2小于49xC2,即減少了參數;而且3x3卷積核有利于更好地保持圖像性質。

    這里解釋一下為什么使用2個3x3卷積核可以來代替5*5卷積核:

    5x5卷積看做一個小的全連接網絡在5x5區域滑動,我們可以先用一個3x3的卷積濾波器卷積,然后再用一個全連接層連接這個3x3卷積輸出,這個全連接層我們也可以看做一個3x3卷積層。這樣我們就可以用兩個3x3卷積級聯(疊加)起來代替一個 5x5卷積。

    具體如下圖所示:

    [外鏈圖片轉存失敗,源站可能有防盜鏈機制,建議將圖片保存下來直接上傳(img-ADLU9Qqw-1626030698005)(imgs/DLIB-0012.png)]

    至于為什么使用3個3x3卷積核可以來代替7*7卷積核,推導過程與上述類似,大家可以自行繪圖理解。

    下面是VGG網絡的結構(VGG16和VGG19都在):

    [外鏈圖片轉存失敗,源站可能有防盜鏈機制,建議將圖片保存下來直接上傳(img-z1GxyWm1-1626030698007)(https://d2mxuefqeaa7sj.cloudfront.net/s_8C760A111A4204FB24FFC30E04E069BD755C4EEFD62ACBA4B54BBA2A78E13E8C_1491022251600_VGGNet.png)]

    • VGG16包含了16個隱藏層(13個卷積層和3個全連接層),如上圖中的D列所示
    • VGG19包含了19個隱藏層(16個卷積層和3個全連接層),如上圖中的E列所示

    VGG網絡的結構非常一致,從頭到尾全部使用的是3x3的卷積和2x2的max pooling。

    如果你想看到更加形象化的VGG網絡,可以使用經典卷積神經網絡(CNN)結構可視化工具來查看高清無碼的VGG網絡。

    VGG優點:

    • VGGNet的結構非常簡潔,整個網絡都使用了同樣大小的卷積核尺寸(3x3)和最大池化尺寸(2x2)。
    • 幾個小濾波器(3x3)卷積層的組合比一個大濾波器(5x5或7x7)卷積層好:
    • 驗證了通過不斷加深網絡結構可以提升性能。

    VGG缺點

    VGG耗費更多計算資源,并且使用了更多的參數(這里不是3x3卷積的鍋),導致更多的內存占用(140M)。其中絕大多數的參數都是來自于第一個全連接層。VGG可是有3個全連接層啊!

    PS:有的文章稱:發現這些全連接層即使被去除,對于性能也沒有什么影響,這樣就顯著降低了參數數量。

    注:很多pretrained的方法就是使用VGG的model(主要是16和19),VGG相對其他的方法,參數空間很大,最終的model有500多m,AlexNet只有200m,GoogLeNet更少,所以train一個vgg模型通常要花費更長的時間,所幸有公開的pretrained model讓我們很方便的使用。

    關于感受野:

    假設你一層一層地重疊了3個3x3的卷積層(層與層之間有非線性激活函數)。在這個排列下,第一個卷積層中的每個神經元都對輸入數據體有一個3x3的視野。

    代碼篇:VGG訓練與測試

    這里推薦兩個開源庫,訓練請參考tensorflow-vgg,快速測試請參考VGG-in TensorFlow。

    代碼我就不介紹了,其實跟上述內容一致,跟著原理看code應該會很快。我快速跑了一下VGG-in TensorFlow,代碼親測可用,效果很nice,就是model下載比較煩。

    貼心的Amusi已經為你準備好了VGG-in TensorFlow的測試代碼、model和圖像。需要的同學可以關注CVer微信公眾號,后臺回復:VGG。

    天道酬勤,還有很多知識要學,想想都刺激~Fighting!

    參考資料

    • 《Very Deep Convolutional Networks for Large-Scale Image Recognition》

    • 深度網絡VGG理解

    • 深度學習經典卷積神經網絡之VGGNet

    • VGG16 結構可視化

    • tensorflow-vgg

    • VGG-in TensorFlow

    • 機器學習進階筆記之五 | 深入理解VGG\Residual Network

    ResNet

    1.ResNet意義

    隨著網絡的加深,出現了訓練集準確率下降的現象,我們可以確定這不是由于Overfit過擬合造成的(過擬合的情況訓練集應該準確率很高);所以作者針對這個問題提出了一種全新的網絡,叫深度殘差網絡,它允許網絡盡可能的加深,其中引入了全新的結構如圖1;
    這里問大家一個問題

    殘差指的是什么?

    其中ResNet提出了兩種mapping:一種是identity mapping,指的就是圖1中”彎彎的曲線”,另一種residual mapping,指的就是除了”彎彎的曲線“那部分,所以最后的輸出是 y=F(x)+x
    identity mapping顧名思義,就是指本身,也就是公式中的x,而residual mapping指的是“差”,也就是y?x,所以殘差指的就是F(x)部分。

    為什么ResNet可以解決“隨著網絡加深,準確率不下降”的問題?

    理論上,對于“隨著網絡加深,準確率下降”的問題,Resnet提供了兩種選擇方式,也就是identity mapping和residual mapping,如果網絡已經到達最優,繼續加深網絡,residual mapping將被push為0,只剩下identity mapping,這樣理論上網絡一直處于最優狀態了,網絡的性能也就不會隨著深度增加而降低了。

    2.ResNet結構

    它使用了一種連接方式叫做“shortcut connection”,顧名思義,shortcut就是“抄近道”的意思,看下圖我們就能大致理解:

    ResNet的F(x)究竟長什么樣子?

    參考資料

    • ResNet解析

    • ResNet論文筆記

    • 殘差網絡ResNet筆記

    • Understand Deep Residual Networks?—?a simple, modular learning framework that has redefined state-of-the-art

    • An Overview of ResNet and its Variants

    • 譯文

    • Understanding and Implementing Architectures of ResNet and ResNeXt for state-of-the-art Image Classification: From Microsoft to Facebook [Part 1]

    • 給妹紙的深度學習教學(4)——同Residual玩耍

    • Residual Networks 理解

    • Identity Mapping in ResNet

    • resnet(殘差網絡)的F(x)究竟長什么樣子?

    • ResNet到底在解決一個什么問題呢?

    ResNet為什么不用Dropout?

    • TODO

    參考資料

    • https://www.zhihu.com/question/325139089
    • https://zhuanlan.zhihu.com/p/60923972

    為什么 ResNet 不在一開始就使用residual block,而是使用一個7×7的卷積?

    先上一下paper里的圖例:

    [外鏈圖片轉存失敗,源站可能有防盜鏈機制,建議將圖片保存下來直接上傳(img-px8LdFjr-1626030698008)(F:/Projects/%E6%B7%B1%E5%BA%A6%E5%AD%A6%E4%B9%A0%E9%9D%A2%E8%AF%95%E5%AE%9D%E5%85%B8%E8%B5%84%E6%96%99%E5%A4%A7%E5%85%A8/GitHub/Deep-Learning-Interview-Book/docs/imgs/DLIB-0023.jpg)]

    原因: 7x7卷積實際上是用來直接對輸入圖片降采樣(early downsampling), 注意像7x7這樣的大卷積核一般只出現在input layer

    目的是: 盡可能保留原始圖像的信息, 而不需要增加channels數.

    本質上是: 多channels的非線性激活層是非常昂貴的, 在input layer用big kernel換多channels是劃算的

    注意一下, resnet接入residual block前pixel為56x56的layer, channels數才64, 但是同樣大小的layer, 在vgg-19里已經有256個channels了.

    這里要強調一下, 只有在input layer層, 也就是最靠近輸入圖片的那層, 才用大卷積, 原因如下:

    深度學習領域, 有一種廣泛的直覺,即更大的卷積更好,但更昂貴。輸入層中的特征數量(224x224)是如此之小(相對于隱藏層),第一卷積可以非常大而不會大幅增加實際的權重數。如果你想在某個地方進行大卷積,第一層通常是唯一的選擇

    我認為神經網絡的第一層是最基本的,因為它基本上只是將數據嵌入到一個新的更大的向量空間中。ResNet在第二層之前沒有開始其特征層跳過,所以看起來作者想要在開始整花里胡哨的layers之前盡可能保留圖像里更多的primary features.

    題外話, 同時期的GoogLeNet也在input layer用到了7x7大卷積, 所以resnet作者的靈感來源于GoogLeNet也說不定, 至于非要追問為啥這么用, 也許最直接的理由就是"深度學習就像煉丹, 因為這樣網絡工作得更好, 所以作者就這么用了".

    再說個有趣的例子, resnet模型是實驗先于理論, 實驗證明有效, 后面才陸續有人研究為啥有效, 比如The Shattered Gradients Problem: If resnets are the answer, then what is the question? 可不就是煉丹么?

    參考資料

    • 為什么resnet不在一開始就使用residual block,而是使用一個7×7的卷積?

    什么是Bottlenet layer?

    • TODO

    ResNet如何解決梯度消失?

    • TODO

    ResNet網絡越來越深,準確率會不會提升?

    • TODO

    ResNet v2

    [外鏈圖片轉存失敗,源站可能有防盜鏈機制,建議將圖片保存下來直接上傳(img-z4Du2Huj-1626030698009)(F:/Projects/%E6%B7%B1%E5%BA%A6%E5%AD%A6%E4%B9%A0%E9%9D%A2%E8%AF%95%E5%AE%9D%E5%85%B8%E8%B5%84%E6%96%99%E5%A4%A7%E5%85%A8/GitHub/Deep-Learning-Interview-Book/docs/imgs/DLIB-0013.png)]

    參考資料

    • 《Identity Mappings in Deep Residual Networks》
    • Feature Extractor[ResNet v2]
    • ResNetV2:ResNet深度解析
    • ResNet v2論文筆記
    • [ResNet系] 002 ResNet-v2

    ResNet v1 與 ResNet v2的區別

    • TODO

    ResNet v2 的 ReLU 激活函數有什么不同?

    • TODO

    ResNeXt

    • TODO

    參考資料

    • ResNeXt算法詳解

    Inception系列(V1-V4)

    InceptionV1

    • TODO

    InceptionV2

    • TODO

    InceptionV3

    • TODO

    InceptionV4

    • TODO

    參考資料

    • 一文概覽Inception家族的「奮斗史」
    • inception-v1,v2,v3,v4----論文筆記

    DenseNet

    • TODO

    為什么 DenseNet 比 ResNet 好?

    • TODO

    為什么 DenseNet 比 ResNet 更耗顯存?

    • TODO

    SE-Net

    • TODO

    Squeeze-Excitation結構是怎么實現的?

    TODO

    FCN

    一句話概括就是:FCN將傳統網絡后面的全連接層換成了卷積層,這樣網絡輸出不再是類別而是 heatmap;同時為了解決因為卷積和池化對圖像尺寸的影響,提出使用上采樣的方式恢復。

    作者的FCN主要使用了三種技術:

    • 卷積化(Convolutional)

    • 上采樣(Upsample)

    • 跳躍結構(Skip Layer)

    卷積化

    卷積化即是將普通的分類網絡,比如VGG16,ResNet50/101等網絡丟棄全連接層,換上對應的卷積層即可。

    上采樣

    此處的上采樣即是反卷積(Deconvolution)。當然關于這個名字不同框架不同,Caffe和Kera里叫Deconvolution,而tensorflow里叫conv_transpose。CS231n這門課中說,叫conv_transpose更為合適。

    眾所諸知,普通的池化(為什么這兒是普通的池化請看后文)會縮小圖片的尺寸,比如VGG16 五次池化后圖片被縮小了32倍。為了得到和原圖等大的分割圖,我們需要上采樣/反卷積。

    反卷積和卷積類似,都是相乘相加的運算。只不過后者是多對一,前者是一對多。而反卷積的前向和后向傳播,只用顛倒卷積的前后向傳播即可。所以無論優化還是后向傳播算法都是沒有問題。

    跳躍結構(Skip Layers)

    (這個奇怪的名字是我翻譯的,好像一般叫忽略連接結構)這個結構的作用就在于優化結果,因為如果將全卷積之后的結果直接上采樣得到的結果是很粗糙的,所以作者將不同池化層的結果進行上采樣之后來優化輸出。

    上采樣獲得與輸入一樣的尺寸
    文章采用的網絡經過5次卷積+池化后,圖像尺寸依次縮小了 2、4、8、16、32倍,對最后一層做32倍上采樣,就可以得到與原圖一樣的大小

    作者發現,僅對第5層做32倍反卷積(deconvolution),得到的結果不太精確。于是將第 4 層和第 3 層的輸出也依次反卷積(圖5)

    參考資料

    【總結】圖像語義分割之FCN和CRF

    圖像語義分割(1)- FCN

    全卷積網絡 FCN 詳解

    U-Net

    本文介紹一種編碼器-解碼器結構。編碼器逐漸減少池化層的空間維度,解碼器逐步修復物體的細節和空間維度。編碼器和解碼器之間通常存在快捷連接,因此能幫助解碼器更好地修復目標的細節。U-Net 是這種方法中最常用的結構。

    fcn(fully convolutional natwork)的思想是:修改一個普通的逐層收縮的網絡,用上采樣(up sampling)(??反卷積)操作代替網絡后部的池化(pooling)操作。因此,這些層增加了輸出的分辨率。為了使用局部的信息,在網絡收縮過程(路徑)中產生的高分辨率特征(high resolution features) ,被連接到了修改后網絡的上采樣的結果上。在此之后,一個卷積層基于這些信息綜合得到更精確的結果。

    與fcn(fully convolutional natwork)不同的是,我們的網絡在上采樣部分依然有大量的特征通道(feature channels),這使得網絡可以將環境信息向更高的分辨率層(higher resolution layers)傳播。結果是,擴張路徑基本對稱于收縮路徑。網絡不存在任何全連接層(fully connected layers),并且,只使用每個卷積的有效部分,例如,分割圖(segmentation map)只包含這樣一些像素點,這些像素點的完整上下文都出現在輸入圖像中。為了預測圖像邊界區域的像素點,我們采用鏡像圖像的方式補全缺失的環境像素。這個tiling方法在使用網絡分割大圖像時是非常有用的,因為如果不這么做,GPU顯存會限制圖像分辨率。
    我們的訓練數據太少,因此我們采用彈性形變的方式增加數據。這可以讓模型學習得到形變不變性。這對醫學圖像分割是非常重要的,因為組織的形變是非常常見的情況,并且計算機可以很有效的模擬真實的形變。在[3]中指出了在無監督特征學習中,增加數據以獲取不變性的重要性。

    參考資料

    • U-net翻譯

    DeepLab 系列

    • TODO

    參考資料

    • Semantic Segmentation --DeepLab(1,2,3)系列總結

    邊框回顧(Bounding-Box Regression)

    如下圖所示,綠色的框表示真實值Ground Truth, 紅色的框為Selective Search提取的候選區域/框Region Proposal。那么即便紅色的框被分類器識別為飛機,但是由于紅色的框定位不準(IoU<0.5), 這張圖也相當于沒有正確的檢測出飛機。

    [外鏈圖片轉存失敗,源站可能有防盜鏈機制,建議將圖片保存下來直接上傳(img-rp3vLGxC-1626030698010)(https://www.julyedu.com/Public/Image/Question/1525499418_635.png)]

    如果我們能對紅色的框進行微調fine-tuning,使得經過微調后的窗口跟Ground Truth 更接近, 這樣豈不是定位會更準確。 而Bounding-box regression 就是用來微調這個窗口的。

    邊框回歸是什么?

    對于窗口一般使用四維向量(x,y,w,h)(x,y,w,h) 來表示, 分別表示窗口的中心點坐標和寬高。 對于圖2, 紅色的框 P 代表原始的Proposal, 綠色的框 G 代表目標的 Ground Truth, 我們的目標是尋找一種關系使得輸入原始的窗口 P 經過映射得到一個跟真實窗口 G 更接近的回歸窗口G^。

    [外鏈圖片轉存失敗,源站可能有防盜鏈機制,建議將圖片保存下來直接上傳(img-yGIDKdzk-1626030698011)(https://www.julyedu.com/Public/Image/Question/1525499529_241.png)]

    所以,邊框回歸的目的即是:給定(Px,Py,Pw,Ph)尋找一種映射f, 使得f(Px,Py,Pw,Ph)=(Gx,Gy,Gw,Gh)并且(Gx,Gy,Gw,Gh)≈(Gx,Gy,Gw,Gh)

    邊框回歸怎么做的?

    那么經過何種變換才能從圖2中的窗口 P 變為窗口G^呢? 比較簡單的思路就是: 平移+尺度放縮

    先做平移(Δx,Δy),Δx=Pwdx§,Δy=Phdy§這是R-CNN論文的:
    G^x=Pwdx§+Px,(1)
    G^y=Phdy§+Py,(2)

    然后再做尺度縮放(Sw,Sh), Sw=exp(dw§),Sh=exp(dh§),對應論文中:
    G^w=Pwexp(dw§),(3)
    G^h=Phexp(dh§),(4)

    觀察(1)-(4)我們發現, 邊框回歸學習就是dx§,dy§,dw§,dh§這四個變換。

    下一步就是設計算法那得到這四個映射。

    線性回歸就是給定輸入的特征向量 X, 學習一組參數 W, 使得經過線性回歸后的值跟真實值 Y(Ground Truth)非常接近. 即Y≈WX。 那么 Bounding-box 中我們的輸入以及輸出分別是什么呢?

    Input:
    RegionProposal→P=(Px,Py,Pw,Ph)這個是什么? 輸入就是這四個數值嗎?其實真正的輸入是這個窗口對應的 CNN 特征,也就是 R-CNN 中的 Pool5 feature(特征向量)。 (注:訓練階段輸入還包括 Ground Truth, 也就是下邊提到的t?=(tx,ty,tw,th))

    Output:
    需要進行的平移變換和尺度縮放 dx§,dy§,dw§,dh§,或者說是Δx,Δy,Sw,Sh。我們的最終輸出不應該是 Ground Truth 嗎? 是的, 但是有了這四個變換我們就可以直接得到 Ground Truth。

    這里還有個問題, 根據(1)~(4)我們可以知道, P 經過 dx§,dy§,dw§,dh§得到的并不是真實值 G,而是預測值G^。的確,這四個值應該是經過 Ground Truth 和 Proposal 計算得到的真正需要的平移量(tx,ty)和尺度縮放(tw,th)。

    這也就是 R-CNN 中的(6)~(9):
    tx=(Gx?Px)/Pw,(6)

    ty=(Gy?Py)/Ph,(7)

    tw=log(Gw/Pw),(8)

    th=log(Gh/Ph),(9)

    那么目標函數可以表示為 d?§=wT?Φ5§,Φ5§是輸入 Proposal 的特征向量,w?是要學習的參數(*表示 x,y,w,h, 也就是每一個變換對應一個目標函數) , d?§ 是得到的預測值。

    我們要讓預測值跟真實值t?=(tx,ty,tw,th)差距最小, 得到損失函數為:
    Loss=∑iN(ti??w^T??5(Pi))2

    函數優化目標為:

    W?=argminw?∑iN(ti??wT??5(Pi))2+λ||w?||2

    利用梯度下降法或者最小二乘法就可以得到 w?。

    參考資料

    • bounding box regression

    • 邊框回歸(Bounding Box Regression)詳解

    • 什么是邊框回歸Bounding-Box regression,以及為什么要做、怎么做

    反卷積(deconv)/轉置卷積(trans)

    參考資料

    • 反卷積(Deconvolution)、上采樣(UNSampling)與上池化(UnPooling)
    • Transposed Convolution, Fractionally Strided Convolution or Deconvolution

    空洞卷積(dilated/Atrous conv)

    • TODO

    參考資料

    • 如何理解空洞卷積(dilated convolution)?

    Pooling層原理

    • TODO

    depthwise卷積加速比推導

    • TODO

    為什么降采用使用max pooling,而分類使用average pooling

    • TODO

    max pooling如何反向傳播

    • TODO

    反卷積

    TODO

    組卷積(group convolution)

    • TODO

    在說明分組卷積之前我們用一張圖來體會一下一般的卷積操作。

    [外鏈圖片轉存失敗,源站可能有防盜鏈機制,建議將圖片保存下來直接上傳(img-6Ttvv9fq-1626030698012)(imgs/DLIB-0014.png)]

    從上圖可以看出,一般的卷積會對輸入數據的整體一起做卷積操作,即輸入數據:H1×W1×C1;而卷積核大小為h1×w1,通道為C1,一共有C2個,然后卷積得到的輸出數據就是H2×W2×C2。這里我們假設輸出和輸出的分辨率是不變的。主要看這個過程是一氣呵成的,這對于存儲器的容量提出了更高的要求。

    但是分組卷積明顯就沒有那么多的參數。先用圖片直觀地感受一下分組卷積的過程。對于上面所說的同樣的一個問題,分組卷積就如下圖所示。

    [外鏈圖片轉存失敗,源站可能有防盜鏈機制,建議將圖片保存下來直接上傳(img-zfRZV93I-1626030698013)(imgs/DLIB-0015.png)]

    可以看到,圖中將輸入數據分成了2組(組數為g),需要注意的是,這種分組只是在深度上進行劃分,即某幾個通道編為一組,這個具體的數量由(C1/g)決定。因為輸出數據的改變,相應的,卷積核也需要做出同樣的改變。即每組中卷積核的深度也就變成了(C1/g),而卷積核的大小是不需要改變的,此時每組的卷積核的個數就變成了(C2/g)個,而不是原來的C2了。然后用每組的卷積核同它們對應組內的輸入數據卷積,得到了輸出數據以后,再用concatenate的方式組合起來,最終的輸出數據的通道仍舊是C2。也就是說,分組數g決定以后,那么我們將并行的運算g個相同的卷積過程,每個過程里(每組),輸入數據為H1×W1×C1/g,卷積核大小為h1×w1×C1/g,一共有C2/g個,輸出數據為H2×W2×C2/g。

    舉個例子:

    Group conv本身就極大地減少了參數。比如當輸入通道為256,輸出通道也為256,kernel size為3×3,不做Group conv參數為256×3×3×256。實施分組卷積時,若group為8,每個group的input channel和output channel均為32,參數為8×32×3×3×32,是原來的八分之一。而Group conv最后每一組輸出的feature maps應該是以concatenate的方式組合。
    Alex認為group conv的方式能夠增加 filter之間的對角相關性,而且能夠減少訓練參數,不容易過擬合,這類似于正則的效果。

    參考資料

    • A Tutorial on Filter Groups (Grouped Convolution)

    • 深度可分離卷積、分組卷積、擴張卷積、轉置卷積(反卷積)的理解

    交錯組卷積(Interleaved group convolutions,IGC)

    參考資料

    • 學界 | MSRA王井東詳解ICCV 2017入選論文:通用卷積神經網絡交錯組卷積
    • 視頻:基于交錯組卷積的高效深度神經網絡

    空洞/擴張卷積(Dilated/Atrous Convolution)

    Dilated convolution/Atrous convolution可以叫空洞卷積或者擴張卷積。

    背景:語義分割中pooling 和 up-sampling layer層。pooling會降低圖像尺寸的同時增大感受野,而up-sampling操作擴大圖像尺寸,這樣雖然恢復了大小,但很多細節被池化操作丟失了。

    需求:能不能設計一種新的操作,不通過pooling也能有較大的感受野看到更多的信息呢?

    目的:替代pooling和up-sampling運算,既增大感受野又不減小圖像大小。

    簡述:在標準的 convolution map 里注入空洞,以此來增加 reception field。相比原來的正常convolution,dilated convolution 多了一個 hyper-parameter 稱之為 dilation rate 指的是kernel的間隔數量(e.g. 正常的 convolution 是 dilatation rate 1)。

    空洞卷積誕生于圖像分割領域,圖像輸入到網絡中經過CNN提取特征,再經過pooling降低圖像尺度的同時增大感受野。由于圖像分割是pixel?wise預測輸出,所以還需要通過upsampling將變小的圖像恢復到原始大小。upsampling通常是通過deconv(轉置卷積)完成。因此圖像分割FCN有兩個關鍵步驟:池化操作增大感受野,upsampling操作擴大圖像尺寸。這兒有個問題,就是雖然圖像經過upsampling操作恢復了大小,但是很多細節還是被池化操作丟失了。那么有沒有辦法既增大了感受野又不減小圖像大小呢?Dilated conv橫空出世。

    [外鏈圖片轉存失敗,源站可能有防盜鏈機制,建議將圖片保存下來直接上傳(img-FkF6OAcF-1626030698014)(imgs/DLIB-0016.png)]

    注意事項:

    1.為什么不直接使用5x5或者7x7的卷積核?這不也增加了感受野么?

    答:增大卷積核能增大感受野,但是只是線性增長,參考答案里的那個公式,(kernel-1)*layer,并不能達到空洞卷積的指數增長。

    2.2-dilated要在1-dilated的基礎上才能達到7的感受野(如上圖a、b所示)

    關于空洞卷積的另一種概括:

    Dilated Convolution問題的引出,是因為down-sample之后的為了讓input和output的尺寸一致。我們需要up-sample,但是up-sample會丟失信息。如果不采用pooling,就無需下采樣和上采樣步驟了。但是這樣會導致kernel 的感受野變小,導致預測不精確。。如果采用大的kernel話,一來訓練的參數變大。二來沒有小的kernel疊加的正則作用,所以kernel size變大行不通。

    由此Dilated Convolution是在不改變kernel size的條件下,增大感受野。

    參考資料

    • 《Multi-Scale Context Aggregation by Dilated Convolutions》

    • 《Rethinking Atrous Convolution for Semantic Image Segmentation》

    • 如何理解空洞卷積(dilated convolution)?

    • Dilated/Atrous conv 空洞卷積/多孔卷積

    • Multi-Scale Context Aggregation by Dilated Convolution 對空洞卷積(擴張卷積)、感受野的理解

    • 對深度可分離卷積、分組卷積、擴張卷積、轉置卷積(反卷積)的理解

    • tf.nn.atrous_conv2d

    轉置卷積(Transposed Convolutions/deconvlution)

    轉置卷積(transposed Convolutions)又名反卷積(deconvolution)或是分數步長卷積(fractially straced convolutions)。反卷積(Transposed Convolution, Fractionally Strided Convolution or Deconvolution)的概念第一次出現是 Zeiler 在2010年發表的論文 Deconvolutional networks 中。

    轉置卷積和反卷積的區別

    那什么是反卷積?從字面上理解就是卷積的逆過程。值得注意的反卷積雖然存在,但是在深度學習中并不常用。而轉置卷積雖然又名反卷積,卻不是真正意義上的反卷積。因為根據反卷積的數學含義,通過反卷積可以將通過卷積的輸出信號,完全還原輸入信號。而事實是,轉置卷積只能還原shape大小,而不能還原value。你可以理解成,至少在數值方面上,轉置卷積不能實現卷積操作的逆過程。所以說轉置卷積與真正的反卷積有點相似,因為兩者產生了相同的空間分辨率。但是又名反卷積(deconvolutions)的這種叫法是不合適的,因為它不符合反卷積的概念。

    簡單來說,轉置矩陣就是一種上采樣過程。

    正常卷積過程如下,利用3x3的卷積核對4x4的輸入進行卷積,輸出結果為2x2

    [外鏈圖片轉存失敗,源站可能有防盜鏈機制,建議將圖片保存下來直接上傳(img-QTBvvJRQ-1626030698015)(https://github.com/vdumoulin/conv_arithmetic/blob/master/gif/no_padding_no_strides.gif?raw=true)]

    轉置卷積過程如下,利用3x3的卷積核對"做了補0"的2x2輸入進行卷積,輸出結果為4x4。

    [外鏈圖片轉存失敗,源站可能有防盜鏈機制,建議將圖片保存下來直接上傳(img-WHy5FR98-1626030698016)(https://github.com/vdumoulin/conv_arithmetic/blob/master/gif/no_padding_no_strides_transposed.gif?raw=true)]

    上述的卷積運算和轉置卷積是"尺寸"對應的,卷積的輸入大小與轉置卷積的輸出大小一致,分別可以看成下采樣和上采樣操作。

    參考資料

    • Transposed Convolution, Fractionally Strided Convolution or Deconvolution
    • 深度學習 | 反卷積/轉置卷積 的理解 transposed conv/deconv

    Group Normalization

    • [ ]

    Xception

    • TODO

    SENet

    SENet

    論文:《Squeeze-and-Excitation Networks》

    論文鏈接:https://arxiv.org/abs/1709.01507

    代碼地址:https://github.com/hujie-frank/SENet

    論文的動機是從特征通道之間的關系入手,希望顯式地建模特征通道之間的相互依賴關系。另外,沒有引入一個新的空間維度來進行特征通道間的融合,而是采用了一種全新的“特征重標定”策略。具體來說,就是通過學習的方式來自動獲取到每個特征通道的重要程度,然后依照這個重要程度去增強有用的特征并抑制對當前任務用處不大的特征,通俗來講,就是讓網絡利用全局信息有選擇的增強有益feature通道并抑制無用feature通道,從而能實現feature通道自適應校準。

    [外鏈圖片轉存失敗,源站可能有防盜鏈機制,建議將圖片保存下來直接上傳(img-fBrdew12-1626030698017)(imgs/DLIB-0017.png)]

    參考資料

    • SENet學習筆記

    SKNet

    • TODO

    參考資料

    • SKNet——SENet孿生兄弟篇
    • 后ResNet時代:SENet與SKNet

    GCNet

    • TODO

    參考資料

    • GCNet:當Non-local遇見SENet
    • 2019 GCNet(attention機制,目標檢測backbone性能提升)論文閱讀筆記

    Octave Convolution

    • TODO

    參考資料

    • 如何評價最新的Octave Convolution?

    MobileNet 系列(V1-V3)

    • TODO

    MobileNetV1

    參考資料

    • 深度解讀谷歌MobileNet

    MobileNetV2

    • TODO

    MobileNetV3

    • TODO

    • 如何評價google Searching for MobileNetV3?

    MobileNet系列為什么快?各有多少層?多少參數?

    • TODO

    MobileNetV1、MobileNetV2和MobileNetV3有什么區別

    MobileNetv1:在depthwise separable convolutions(參考Xception)方法的基礎上提供了高校模型設計的兩個選擇:寬度因子(width multiplie)和分辨率因子(resolution multiplier)。深度可分離卷積depthwise separable convolutions(參考Xception)的本質是冗余信息更小的稀疏化表達。

    下面介紹兩幅Xception中 depthwise separable convolution的圖示:

    [外鏈圖片轉存失敗,源站可能有防盜鏈機制,建議將圖片保存下來直接上傳(img-MAXLgKlZ-1626030698017)(imgs/DLIB-0018.png)]

    [外鏈圖片轉存失敗,源站可能有防盜鏈機制,建議將圖片保存下來直接上傳(img-g5Me6dli-1626030698018)(imgs/DLIB-0019.png)]

    深度可分離卷積的過程是①用16個3×3大小的卷積核(1通道)分別與輸入的16通道的數據做卷積(這里使用了16個1通道的卷積核,輸入數據的每個通道用1個3×3的卷積核卷積),得到了16個通道的特征圖,我們說該步操作是depthwise(逐層)的,在疊加16個特征圖之前,②接著用32個1×1大小的卷積核(16通道)在這16個特征圖進行卷積運算,將16個通道的信息進行融合(用1×1的卷積進行不同通道間的信息融合),我們說該步操作是pointwise(逐像素)的。這樣我們可以算出整個過程使用了3×3×16+(1×1×16)×32 =656個參數。

    注:上述描述與標準的卷積非常的不同,第一點在于使用非1x1卷積核時,是單channel的(可以說是1通道),即上一層輸出的每個channel都有與之對應的卷積核。而標準的卷積過程,卷積核是多channel的。第二點在于使用1x1卷積核實現多channel的融合,并利用多個1x1卷積核生成多channel。表達的可能不是很清楚,但結合圖示其實就容易明白了。

    一般卷積核的channel也常稱為深度(depth),所以叫做深度可分離,即原來為多channel組合,現在變成了單channel分離。

    參考資料

    • 深度解讀谷歌MobileNet
    • 對深度可分離卷積、分組卷積、擴張卷積、轉置卷積(反卷積)的理解

    MobileNetv2為什么會加shotcut?

    • TODO

    MobileNet V2中的Residual結構最先是哪個網絡提出來的?

    • TODO

    ShuffleNet 系列(V1-V2++)

    • TODO

    ShuffleNetV1

    • TODO

    • 輕量級網絡–ShuffleNet論文解讀

    • 輕量級網絡ShuffleNet v1

    • CNN模型之ShuffleNet

    ShuffleNetV2

    • TODO

    參考資料

    • ShuffleNetV2:輕量級CNN網絡中的桂冠
    • 輕量級神經網絡“巡禮”(一)—— ShuffleNetV2
    • ShufflenetV2_高效網絡的4條實用準則
    • ShuffNet v1 和 ShuffleNet v2

    IGC 系列(V1-V3)

    • TODO

    參考資料

    • 微軟資深研究員詳解基于交錯組卷積的高效DNN | 公開課筆記

    深度可分離網絡(Depth separable convolution)

    • TODO

    學習率如何調整

    • TODO

    神經網絡的深度和寬度作用

    • TODO

    網絡壓縮與量化

    • TODO

    參考資料

    • 網絡壓縮-量化方法對比

    Batch Size

    • TODO

    參考資料

    • 怎么選取訓練神經網絡時的Batch size?

    • 談談深度學習中的 Batch_Size

    BN和Dropout在訓練和測試時的差別

    • TODO

    參考資料

    • BN和Dropout在訓練和測試時的差別

    深度學習調參有哪些技巧?

    參考資料

    • https://www.zhihu.com/question/25097993/answer/651617880

    為什么深度學習中的模型基本用3x3和5x5的卷積(奇數),而不是2x2和4x4的卷積(偶數)?

    參考資料

    • https://www.zhihu.com/question/321773456

    深度學習訓練中是否有必要使用L1獲得稀疏解?

    • TODO

    參考資料

    • https://www.zhihu.com/question/51822759

    EfficientNet

    • TODO

    參考資料

    • 如何評價谷歌大腦的EfficientNet?
    • EfficientNet-可能是迄今為止最好的CNN網絡
    • EfficientNet論文解讀
    • EfficientNet:調參俠的福音(ICML 2019)

    如何理解歸一化(Normalization)對于神經網絡(深度學習)的幫助?

    BN最早被認為通過降低所謂Internal Covariate Shift,這種想法的出處可考至Understanding the difficulty of training deep feedforward neural networks,想必這也是batch norm作者這么設計的初衷。但是這種想法并沒有過多實驗支持,比如說去年NeurlPS這篇paper作者做了實驗,在batch norm之后加上一些隨機擾動(non-zero mean and non-unit variance,人為引入covariate shift),發現效果仍然比不加好很多。為什么放在batch norm layer之后而不是之前?因為為了證偽batch norm通過forward pass這一步降低covariate shift來提升網絡訓練效率的。這樣說來故事就變得很有趣了,也就是說我們大概都理解一些BN對BN層之前網絡噪音的好處,那么能不能研究一下它對它后面layer的影響?所以這些研究從優化的角度,有如下幾種觀點。

  • BN通過修改loss function, 可以令loss的和loss的梯度均滿足更強的Lipschitzness性質(即函數f滿足L-Lipschitz和 [外鏈圖片轉存失敗,源站可能有防盜鏈機制,建議將圖片保存下來直接上傳(img-YzbQwHcU-1626030698019)(https://www.zhihu.com/equation?tex=%5Cbeta)] -smooth,令L和 [外鏈圖片轉存失敗,源站可能有防盜鏈機制,建議將圖片保存下來直接上傳(img-hkZ13wlA-1626030698020)(https://www.zhihu.com/equation?tex=%5Cbeta)] 更小,后者其實等同于f Hessian的eigenvalue小于 [外鏈圖片轉存失敗,源站可能有防盜鏈機制,建議將圖片保存下來直接上傳(img-BEUnQWlA-1626030698021)(https://www.zhihu.com/equation?tex=%5Cbeta)] ,可以作為光滑程度的度量,其實吧我覺得,一般convex optimization里拿這個度量算convergence rate是神器,對于non-convex optimization,不懂鴨,paper里好像也沒寫的樣子),這么做的好處是當步子邁得大的時候,我們可以更自信地告訴自己計算出來的梯度可以更好地近似實際的梯度,因此也不容易讓優化掉進小坑里。有意思的地方來了,是不是我在某些地方插入一個1/1000 layer,把梯度的L-Lipschitz變成1/1000L-Lipschitz就能讓函數優化的更好了呢?其實不是的,因為單純除以函數會改變整個優化問題,而BN做了不僅僅rescale這件事情,還讓原來近似最優的點在做完變化之后,仍然保留在原來不遠的位置。這也就是這篇文章的核心論點,BN做的是問題reparametrization而不是簡單的scaling。 [1]
  • BN把優化這件事情分解成了優化參數的方向和長度兩個任務,這么做呢可以解耦層與層之間的dependency因此會讓curvature結構更易于優化。這篇證了convergence rate,但由于沒有認真讀,所以感覺沒太多資格評價。[2]
  • 歸一化手段是否殊途同歸?很可能是的,在[1]的3.3作者也嘗試了Lp normalization,也得到了和BN差不多的效果。至于Layer norm還是weight norm,可能都可以順著這個思路進行研究鴨,無論是通過[1]還是[2],可能今年的paper里就見分曉了,let’s see。

  • How Does Batch Normalization Help Optimization?
  • Exponential convergence rates for Batch Normalization: The power of length-direction decoupling in non-convex optimization
  • 參考資料

    • 如何理解歸一化(Normalization)對于神經網絡(深度學習)的幫助?

    多標簽分類怎么解決?

    • TODO

    TODO

    Reference

    CVer公眾號

    ?

    總結

    以上是生活随笔為你收集整理的DL-tudo的全部內容,希望文章能夠幫你解決所遇到的問題。

    如果覺得生活随笔網站內容還不錯,歡迎將生活随笔推薦給好友。

    日本在线观看一区 | 91视视频在线直接观看在线看网页在线看 | 亚洲国产中文字幕在线观看 | 天天干夜夜夜 | 伊人伊成久久人综合网小说 | 毛片网站免费 | 看片黄网站 | 在线观av | 欧美日韩一区二区三区在线观看视频 | 91香蕉视频 mp4| 蜜臀久久99静品久久久久久 | av电影在线观看完整版一区二区 | 久久亚洲日本 | 免费网站色| 日韩色爱 | 日韩av免费观看网站 | 91丨九色丨高潮丰满 | 国产亚洲精品女人久久久久久 | 综合在线观看色 | 国产精品久久久久9999吃药 | 国产一级免费视频 | 久草久草在线 | 干干日日 | 国产成人精品亚洲 | 亚洲精品网页 | 四虎国产永久在线精品 | 最近中文字幕高清字幕在线视频 | 狠狠色丁香婷婷综合橹88 | 欧美一区,二区 | 97成人啪啪网 | 激情伊人五月天久久综合 | 最近能播放的中文字幕 | 五月天免费网站 | 天天色天天干天天色 | 欧美激情视频免费看 | 精品产品国产在线不卡 | 中文字幕在线观看第一区 | 国产午夜精品久久久久久久久久 | 99在线观看 | 国产品久精国精产拍 | 国产原创av在线 | 日韩精品最新在线观看 | 国产免费激情久久 | 91精品久久久久久久久久久久久 | 国产永久免费高清在线观看视频 | 一级特黄av | 日韩在线高清免费视频 | 久久伦理电影网 | 亚洲午夜精品在线观看 | 国产精品一区在线观看 | 24小时日本在线www免费的 | 国产高清不卡在线 | 免费看精品久久片 | 美女网站色免费 | 亚洲国产成人精品久久 | 在线国产一区 | 久久精品国产亚洲 | 黄污网站在线观看 | 久久视频在线观看 | 欧美一区二区三区在线播放 | 国产成人精品在线 | 激情欧美xxxx | 欧美激情视频在线观看免费 | 国产欧美久久久精品影院 | 精品国产乱码久久久久久浪潮 | 在线看毛片网站 | 国产一区二区精品久久91 | 亚洲精品国产自产拍在线观看 | 97在线免费视频观看 | 涩涩网站在线看 | 成人一级| 亚洲片在线观看 | 91高清免费看 | 亚洲精品五月天 | 九七人人干 | 久久久久久久久久电影 | 免费国产亚洲视频 | 久久久国产影院 | 久久y| 国产精品美乳一区二区免费 | 久久精品国产亚洲精品2020 | 日韩精品久久一区二区三区 | 国产在线视频一区二区 | 久久精品永久免费 | 最近中文字幕视频完整版 | 国产黄色免费观看 | 国产日韩欧美精品在线观看 | www五月天com| 最新中文字幕在线资源 | 最新精品视频在线 | 午夜美女视频 | 国产精品久久艹 | 日本中文一区二区 | 97品白浆高清久久久久久 | 六月色丁香| 欧美淫aaa免费观看 日韩激情免费视频 | 亚洲午夜在线视频 | 人人插人人艹 | 99午夜 | 国产精品五月天 | 国内偷拍精品视频 | 一区二区日韩av | av中文字幕在线电影 | 婷婷丁香久久五月婷婷 | 日韩网站在线播放 | 亚洲精品456在线播放第一页 | 97国产一区二区 | 国产在线精品观看 | 久久精品日产第一区二区三区乱码 | 97视频免费在线看 | 精品国产网址 | 天天狠狠干 | 成年人在线电影 | 黄色视屏在线免费观看 | 国产视频18| 国产精品美女www爽爽爽视频 | 韩日精品在线 | 亚洲五月综合 | 五月天婷婷丁香花 | 婷婷激情站 | www.夜夜操 | 最近中文字幕在线中文高清版 | 最新国产视频 | 深夜成人av | 欧美性极品xxxx做受 | 中文字幕免费在线 | 色人久久 | 国产高清视频在线 | 国产精品视屏 | 91爱爱电影 | 玖玖在线免费视频 | 久久婷婷综合激情 | 天天躁天天狠天天透 | 成年人视频免费在线 | 中文亚洲欧美日韩 | 日韩最新理论电影 | 日韩超碰 | 97日日| 亚洲视频免费在线观看 | 成人禁用看黄a在线 | 亚洲激情在线播放 | 免费观看十分钟 | 国产精品一区二区吃奶在线观看 | 久久久久亚洲天堂 | 91九色国产视频 | 色噜噜狠狠狠狠色综合 | 久草久视频 | 在线成人高清电影 | 黄色福利视频网站 | av一区二区三区在线播放 | 国产精品久久久久久久久久久久午 | 久热av在线 | 久久久久成人免费 | 9999免费视频 | 亚洲深夜影院 | 美女视频黄免费的 | 91精品国产99久久久久久红楼 | 久精品一区| 天天骚夜夜操 | 精品国产一区二区三区四 | 久久精品国产免费 | 久久久久国产a免费观看rela | 亚洲成熟女人毛片在线 | 免费亚洲黄色 | 97精品在线 | 亚洲精品无 | 日本精品视频在线播放 | 区一区二区三区中文字幕 | 在线观看国产91 | 精品国产中文字幕 | 在线小视频国产 | 久久婷婷激情 | 国产精品白浆 | 中文字幕一区二区三区视频 | 久久久在线观看 | 精品1区二区 | 久久99网 | 色综合中文字幕 | 丝袜av一区 | 久久精彩 | 国产精品亚洲人在线观看 | 国产美女主播精品一区二区三区 | 亚洲动漫在线观看 | 九九热在线精品 | 国产免费一区二区三区最新 | 久久视频在线观看免费 | 日本一区二区免费在线观看 | 久久久久久99精品 | 国产理论免费 | 亚洲视频第一页 | 欧美性护士 | 成人免费xxxxxx视频 | 国产精品不卡 | 国产亚洲精品免费 | 国产精品久久久久久超碰 | 日日碰狠狠添天天爽超碰97久久 | 中文字幕免费观看视频 | 婷婷在线免费观看 | 天天射综合 | 91丨精品丨蝌蚪丨白丝jk | 精品亚洲视频在线观看 | 91丨精品丨蝌蚪丨白丝jk | 亚洲成人影音 | 国产激情小视频在线观看 | 婷婷久草 | 麻豆国产电影 | 色噜噜在线观看视频 | 国产爽视频| www.国产在线视频 | 亚洲日本va在线观看 | 91精品国产乱码在线观看 | 99免费国产| 国产精品久久久久久久久久不蜜月 | 日韩三级不卡 | 久久国产精品久久久久 | www178ccom视频在线| 亚洲专区路线二 | 中文永久免费观看 | av在线永久免费观看 | 在线国产激情视频 | 亚洲人成人天堂h久久 | 欧美黄污视频 | 日韩成人在线一区二区 | 91在线免费视频观看 | 日韩毛片一区 | 91在线色 | 国产精品久久久久久久久久久久午夜片 | 人人超在线公开视频 | 亚洲精品在线视频网站 | 天天做天天爱天天爽综合网 | 亚洲狠狠干| 亚洲精品高清视频在线观看 | 久久黄色片子 | 国产亚洲在线 | 欧美日本不卡 | 超碰免费在线公开 | 欧美成亚洲 | 亚洲国产精彩中文乱码av | 欧美视频日韩视频 | 国产精品自在线拍国产 | 国产精品综合久久久久 | 中文字幕第一页在线 | 麻豆视频国产 | 久久免费久久 | 狠狠ri| 五月花丁香婷婷 | 天天操天天射天天舔 | 99超碰在线观看 | 一本色道久久综合亚洲二区三区 | 日韩欧美国产激情在线播放 | 一级黄色网址 | av在线免费观看网站 | 国产视频一区二区在线播放 | 在线视频日韩欧美 | 天天拍天天草 | 波多野结衣在线播放一区 | 国产剧情在线一区 | 色99网| 成人日韩av| 久久久久久久久久久久亚洲 | 色视频网站在线 | 西西4444www大胆无视频 | 亚洲精品xxx | 久操视频在线播放 | 久久精品福利 | 久久精品电影院 | 中文字幕中文 | 国产美女黄网站免费 | 精品国产成人在线 | 亚洲综合精品在线 | 在线观看日本韩国电影 | 亚洲美女视频网 | 国产精品网站一区二区三区 | 成人午夜影院 | 欧美日韩精品在线免费观看 | 中字幕视频在线永久在线观看免费 | 久久精品国产免费 | 欧美日韩中文字幕在线视频 | 日韩中文字幕免费视频 | 久久久久激情电影 | 五月天婷亚洲天综合网鲁鲁鲁 | 探花视频免费观看 | 欧美一级专区免费大片 | 久99热| 亚洲精品麻豆 | 日韩字幕在线 | 国产精品成人一区二区三区吃奶 | 福利视频导航网址 | 色婷婷国产在线 | 欧美日韩国产综合网 | 日日添夜夜添 | 日韩av不卡在线播放 | 00av视频 | 亚洲最大激情中文字幕 | 免费观看国产视频 | 人人干人人做 | 久久论理 | 久久99网| 911精品美国片911久久久 | 四虎影视成人永久免费观看亚洲欧美 | 欧美精品少妇xxxxx喷水 | 成人久久久电影 | 久久激五月天综合精品 | 国产一区福利在线 | 精品久久久久久久久久岛国gif | 四虎成人精品永久免费av九九 | 亚洲高清视频在线 | 午夜免费视频网站 | 蜜桃视频成人在线观看 | 日韩欧美高清在线观看 | www.色爱 | 国产成人一区二区三区久久精品 | 最近2019中文免费高清视频观看www99 | 黄色的网站免费看 | 超碰九九 | 亚洲精品91天天久久人人 | 久久香蕉国产精品麻豆粉嫩av | 碰碰影院| 亚洲综合色av| 久久久999 | 伊人五月天.com | 天天要夜夜操 | 国产精品白浆 | 91精品国产入口 | 久久久久99精品国产片 | 中文字幕在线一区二区三区 | 色综合久久综合中文综合网 | 欧美一区二区在线看 | 黄色午夜| 日韩久久久久久久久久久久 | 日韩xxxx视频 | 91桃色在线观看视频 | 香蕉视频91 | 日韩精品免费一区二区三区 | 久久视频这里有精品 | 久久国产成人午夜av影院潦草 | 色综合婷婷 | 九九视频在线 | 日本精品一区二区 | 91热精品 | 国产美女被啪进深处喷白浆视频 | 国产亚洲精品免费 | 欧美日韩精品影院 | 国内精品视频免费 | 天天干天天干天天干天天干天天干天天干 | 天天干夜夜想 | 高清av中文在线字幕观看1 | 麻豆极品| 久久综合中文字幕 | 成人黄色毛片视频 | 亚洲精品在线视频网站 | 日韩免费电影网 | 精品国自产在线观看 | 探花视频在线观看+在线播放 | 日韩av女优视频 | 超碰97国产| 亚洲国产视频直播 | 国产在线视频导航 | 久久综合九色综合欧美就去吻 | 久久9精品| 免费一级片观看 | 日本中文字幕高清 | 五月在线视频 | 久久经典国产 | 午夜久久 | 人人爽人人爽人人爽 | 成人中文字幕在线观看 | 亚洲码国产日韩欧美高潮在线播放 | 久草av在线播放 | 成年人免费在线观看 | 五月天欧美精品 | 中文字幕在线字幕中文 | 97精品国产97久久久久久免费 | 人人爽人人爽人人 | 成年人免费av | 婷婷六月中文字幕 | 欧美成人在线免费观看 | www91在线观看 | 国内精品久久久久久久久久久 | 91九色成人蝌蚪首页 | 午夜在线观看一区 | 久久精品国产免费看久久精品 | www.成人精品 | 国产精品美女久久久免费 | 久久久久久久久久久精 | 亚洲日日日 | 久久夜视频 | 黄色成人在线观看 | 国产精品久久在线观看 | 日日干天天爽 | 亚洲日本va午夜在线电影 | 一区二区三区四区精品视频 | 国产又粗又猛又黄视频 | 91精品系列 | 国产三级午夜理伦三级 | 精品一区二区免费视频 | 91在线麻豆 | 久久官网 | 久久99久久久久久 | 亚洲一区美女视频在线观看免费 | 欧美亚洲另类在线视频 | 免费看黄色大全 | 国产精品久久久久久久久免费 | av电影免费在线看 | 欧美日韩网址 | 久草在线中文888 | 国产精品大片免费观看 | 一区二区在线影院 | 免费观看9x视频网站在线观看 | 中文字幕在线观看一区 | 久久五月情影视 | 精品毛片在线 | 麻豆国产精品视频 | 中文字幕av在线电影 | av一级网站 | 狠狠色丁香婷婷综合久小说久 | 国产视频丨精品|在线观看 国产精品久久久久久久久久久久午夜 | 99爱国产精品 | 在线观看免费版高清版 | 少妇bbbb搡bbbb搡bbbb | 欧美大jb| 久久精品视频国产 | av动态图片 | 久久精品免费电影 | 二区三区视频 | 正在播放亚洲精品 | 天天操天天怕 | 久久99网| 成年人在线观看免费视频 | av免费电影在线观看 | 国产精品日韩在线 | 午夜精品久久久久久久久久久久 | 91视频国产高清 | 天天操天天操天天操天天操 | 99久久精品视频免费 | 日韩三级在线观看 | 中文字幕在线视频一区 | 色就是色综合 | 色丁香婷婷 | 国产成人精品久久久 | 成人黄色大片 | 少妇性aaaaaaaaa视频 | 亚洲欧美va | 日韩精品一区二区三区电影 | 久久久久亚洲精品中文字幕 | 欧美日bb | 久久久久久久久久久黄色 | 五月婷久| 色综合天天做天天爱 | 久久国产精品网站 | 久久午夜影院 | 一区二区三区四区五区在线视频 | 欧美色图30p| 91大神精品视频在线观看 | 国产免费成人av | 久久人人爽人人爽人人片av软件 | 日韩欧美在线视频一区二区三区 | 伊人五月在线 | 热久久免费视频精品 | 国产一区二区三区免费在线 | 成年人在线播放视频 | 狠狠狠狠狠狠天天爱 | 免费久久久久久 | 在线观看精品一区 | 精品国产网址 | 国产玖玖在线 | 伊人黄 | 在线免费av观看 | 特级西西人体444是什么意思 | 一区二区三区四区五区六区 | 最近最新最好看中文视频 | 久久久这里有精品 | 九色91在线| 在线 你懂| 久久精品日本啪啪涩涩 | 不卡的一区二区三区 | 久久国产精品精品国产色婷婷 | 丁香六月婷婷综合 | 久久麻豆视频 | 免费在线观看中文字幕 | 欧美在线视频二区 | 亚洲国产成人在线观看 | 天天干天天上 | 人人插人人费 | 在线观看日韩中文字幕 | 国产成人精品电影久久久 | 91理论片午午伦夜理片久久 | 美女网站视频免费黄 | 婷婷色网 | 亚洲高清久久久 | 99热九九这里只有精品10 | 国产成人av网站 | 日韩精品中文字幕在线 | 毛片的网址 | 91丨九色丨国产在线观看 | 亚洲精品国产精品乱码在线观看 | 中文av网站 | 色网站在线免费 | 99热这里只有精品免费 | 草在线 | 久草久草在线观看 | 国产精品久久久一区二区三区网站 | 亚洲精品免费视频 | 国产亚洲精品精品精品 | 久久草草热国产精品直播 | 毛片一级免费一级 | 成人黄色视 | 亚洲成人频道 | 特级西西444www大胆高清无视频 | 午夜精品视频一区 | 国产精品久久久久一区二区三区 | 日韩精品一区二区免费视频 | 天堂久久电影网 | 永久免费的av电影 | 狠狠躁日日躁狂躁夜夜躁av | 在线观看免费高清视频大全追剧 | 黄网站免费看 | 国产美女久久久 | 国产精品国产毛片 | 久久国产精品免费看 | 国产艹b视频 | 五月婷婷综合在线观看 | 特级西西444www大精品视频免费看 | 中文字幕在线电影 | 亚洲久草网 | 国产美女免费 | 亚洲区视频在线 | 免费久久久久久久 | 超碰97人人射妻 | 中文字幕在线观看第一区 | 亚洲国产片色 | 911国产精品| 色婷婷国产在线 | 亚洲 欧美 综合 在线 精品 | 在线观看涩涩 | 三级黄免费看 | 91麻豆精品国产91久久久久 | 91精品国产91久久久久久三级 | 亚洲黄色一级大片 | 亚洲成a人片77777kkkk1在线观看 | 日本黄色黄网站 | 亚洲精品在线观看视频 | 丁香在线观看完整电影视频 | 黄色av一区 | 欧美一级激情 | 国产中文视频 | 免费av大片| 精品国产视频在线观看 | 国产字幕av | 欧美日韩精品在线 | 日本韩国精品一区二区在线观看 | 综合色久 | 天天操夜夜操国产精品 | 91午夜精品 | 四虎免费在线观看视频 | 国产99久久久国产精品成人免费 | 欧美精品久久人人躁人人爽 | 91在线播放国产 | 麻豆你懂的 | 欧美乱码精品一区二区 | 日日夜夜精品 | 国内精品毛片 | 人人插超碰| 国产精品成人av久久 | 超碰99人人| 国产99久久99热这里精品5 | 黄色精品国产 | 国产精品一区二区三区视频免费 | 91亚洲精品久久久蜜桃借种 | 青青久草在线视频 | 国产精品久久久久影视 | 91传媒在线观看 | 国产精品久久久久久久久久免费看 | 亚洲欧美日韩不卡 | 日韩国产精品一区 | 日韩网| 中文字幕一区二区三区四区在线视频 | 中文字幕人成人 | 亚洲人人av | 欧美精品天堂 | 国产免费黄视频在线观看 | www.人人草| 超碰夜夜 | 欧美怡红院视频 | 国产又粗又猛又色又黄视频 | 成人资源网 | 成人av播放| 激情五月婷婷综合 | 国产成人精品日本亚洲999 | 999在线视频 | 91尤物国产尤物福利在线播放 | 国产视频在线一区二区 | 亚洲在线视频网站 | 婷婷电影在线观看 | 亚洲三级性片 | 欧美一级看片 | 国产精品嫩草影院99网站 | 四虎欧美 | 91成人破解版 | 国外成人在线视频网站 | 亚洲色影爱久久精品 | 精品一区二区三区久久久 | 中文字幕日本在线观看 | 午夜婷婷网 | 黄色三级视频片 | 成人免费视频视频在线观看 免费 | 国产精品久久在线 | 韩国av免费在线观看 | 福利视频精品 | 久久精品亚洲国产 | 国产无遮挡又黄又爽在线观看 | 97av在线视频免费播放 | av黄色av | 日日操夜夜操狠狠操 | 在线观看成人 | 久久精品123 | 久久电影中文字幕视频 | 久久在线看 | 国产精品情侣视频 | 人人插人人 | 91精品爽啪蜜夜国产在线播放 | 亚洲婷婷综合色高清在线 | 国产精品小视频网站 | 亚洲精品久久久久999中文字幕 | 午夜久久影院 | 中文在线字幕免费观看 | 国产中文字幕av | 日本少妇高清做爰视频 | 免费国产黄线在线观看视频 | av丝袜制服| 日韩一区二区三区高清免费看看 | 色综久久 | 久久99精品久久只有精品 | 婷久久 | 久久久www成人免费精品张筱雨 | 亚洲视频 中文字幕 | 精品国产成人av | 免费在线一区二区 | 亚洲综合激情 | 久久久久久综合网天天 | 丁香婷婷久久 | 精品产品国产在线不卡 | 婷婷久久丁香 | 久久伊99综合婷婷久久伊 | 欧美xxxx性xxxxx高清 | 四虎影视精品成人 | 国产在线观看免 | 国产97色| 丝袜精品视频 | 丁香六月婷婷开心婷婷网 | 色婷婷午夜| 精品视频免费观看 | 亚洲理论在线观看电影 | 伊人小视频 | 成人国产精品久久久 | 亚洲国产日韩一区 | 中文字幕在线观看亚洲 | 欧美一级特黄高清视频 | 中文字幕在线一区观看 | 国产精品不卡在线 | 中文字幕在线观看视频免费 | 日韩毛片精品 | 久久久69 | 久久伦理 | 成人久久精品视频 | 在线国产一区二区三区 | 成人一区二区在线观看 | 国产一级片一区二区三区 | 日本精品二区 | 国产视频综合在线 | 成人免费网站视频 | 久久精品国产精品 | 国产在线视频一区二区三区 | 在线视频1卡二卡三卡 | 在线观看黄a | 中文在线www | 麻豆视频在线免费观看 | 久久久精品国产一区二区 | 欧美性黑人| www.天天干.com| 欧美一级日韩三级 | 亚洲一区日韩精品 | 爱情影院aqdy鲁丝片二区 | 天天操夜操 | 精品国产精品久久一区免费式 | 激情六月婷婷久久 | 综合久久2023 | a天堂免费 | 国产护士av | 欧美韩日视频 | 免费视频在线观看网站 | 青草视频在线 | а天堂中文最新一区二区三区 | 免费成人av网站 | 成人在线观看你懂的 | 亚洲最新视频在线播放 | 亚洲人人精品 | 久久视频免费在线观看 | 久草精品在线播放 | 91大片成人网 | 91av视屏| 午夜久久影院 | bbbb操bbbb | 亚洲一区日韩精品 | 日韩精品一区电影 | 久久草在线视频国产 | 99视频免费播放 | 亚洲欧洲xxxx | 夜夜夜夜猛噜噜噜噜噜初音未来 | 97在线观视频免费观看 | 99精品视频免费 | 337p日本欧洲亚洲大胆裸体艺术 | 国产精品情侣视频 | 久久精品www人人爽人人 | 四虎影视久久久 | 色在线网站| www.人人草 | 91香蕉视频在线 | 久久精品成人热国产成 | 免费在线观看成人 | 色综合天天色 | 激情av一区二区 | 欧美va天堂va视频va在线 | 天天色天天 | 久久九九影视网 | 国产中文字幕视频在线观看 | 天天综合网在线观看 | 一区二区三区电影在线播 | 超碰成人网 | 亚洲精品乱码久久久一二三 | 最新av电影网站 | 久久精品香蕉视频 | 麻豆视频免费播放 | 国产成人av网站 | 日韩在线视频一区二区三区 | 天天拍天天干 | 99热最新| 黄色av一区二区 | 超碰97.com| 免费观看午夜视频 | 亚洲精品自在在线观看 | 中文字幕在线观看视频网站 | 欧美a级成人淫片免费看 | 国产精品久久久久久久久大全 | 国产99一区| 免费日韩视 | 日韩久久精品一区二区三区下载 | 9久久精品 | 曰韩在线| 91精品国产91久久久久 | 国产专区日韩专区 | 免费在线观看av电影 | 九九视频免费在线观看 | 日本久久精 | 麻豆国产网站入口 | 九九热视频在线免费观看 | 午夜美女wwww | 国产成人av片 | 五月婷婷综合在线观看 | 亚洲波多野结衣 | 国产最新在线观看 | 欧美爽爽爽| 久久综合久久综合这里只有精品 | 视频二区 | 国产在线色 | 日本久久片 | 久热电影| 色狠狠综合 | 国产精品18久久久久久久 | 91成人午夜 | 在线观看国产日韩 | 欧美精品做受xxx性少妇 | 最近日韩免费视频 | 中文电影网| 国产精品免费人成网站 | 色a资源在线 | 日韩精品一区在线播放 | 色综合久久精品 | 成年人在线观看免费视频 | 免费黄色a网站 | 开心色停停| 精品久久久久久久久中文字幕 | 人人天天夜夜 | 欧美久久久一区二区三区 | 黄色a视频 | 六月丁香在线视频 | 国产一区观看 | 久久久国产精品电影 | 久久av一区二区三区亚洲 | 欧美激情综合五月色丁香小说 | 免费精品久久久 | 伊人久久一区 | 婷婷av网 | 一区二区三区动漫 | 国内丰满少妇猛烈精品播放 | 91麻豆精品久久久久久 | 中文字幕一区二区三区四区久久 | 日韩免费观看一区二区 | 久久精品久久精品 | 亚洲理论片 | 日日爱999 | 国产高清视频在线播放一区 | 中文字幕一区二 | 免费黄色av | 日本韩国在线不卡 | 国产精品久久久久久一区二区三区 | 精品国产一区二区三区久久久蜜臀 | 99综合久久| 精品久久一区 | 免费久久99精品国产婷婷六月 | 国产精品黄网站在线观看 | 久久蜜臀av | 精品一区二区免费在线观看 | 午夜少妇一区二区三区 | 天天爱综合| 免费看精品久久片 | 国产黄色片一级三级 | 中文字幕在线日本 | 丝袜美腿av | 国产成人精品在线观看 | 日韩不卡高清视频 | 夜夜爽www | 色综合久久综合中文综合网 | 日本精品一区二区在线观看 | 国产一区自拍视频 | 在线а√天堂中文官网 | 久久影视中文字幕 | 在线观看日韩中文字幕 | 国产亚洲免费观看 | 黄色一级大片在线免费看国产一 | 波多野结衣精品视频 | 日韩久久精品一区二区三区 | 黄色电影在线免费观看 | 色国产视频 | 91九色免费视频 | 91天堂影院 | 久久电影日韩 | 欧美国产日韩在线观看 | 亚洲精品国偷拍自产在线观看 | 国产精品亚洲成人 | 国产日本在线播放 | 久久免费视频这里只有精品 | 国产高清不卡一区二区三区 | 在线观看国产区 | 91成人在线视频观看 | 久久激情视频 久久 | 在线观看视频99 | av字幕在线 | 久久综合久久综合这里只有精品 | www.福利视频 | 五月天婷婷在线观看视频 | 福利一区二区三区四区 | 四虎免费在线观看视频 | 国产在线观看91 | 天天干天天摸天天操 | 天天爱天天射天天干天天 | 国产精品一区二区三区久久久 | 欧美极品久久 | 日本精a在线观看 | 欧美日韩一区二区三区在线观看视频 | 亚洲国产精品传媒在线观看 | 日韩一二区在线观看 | 毛片激情永久免费 | 玖玖999| 成人午夜在线电影 | 91视频午夜| 中文字幕视频网 | 日韩免费观看高清 | 国产又粗又长又硬免费视频 | 91福利区一区二区三区 | 亚洲成av人片在线观看 | 久久久综合精品 | 久久国产亚洲精品 | av电影久久 | 91麻豆产精品久久久久久 | 日韩一区二区三免费高清在线观看 | 日韩精选在线观看 | 三级视频国产 | www.啪啪.com| 亚洲精品美女久久久 | 三上悠亚一区二区在线观看 | 色99视频 | 国产精品一区二区三区在线播放 | 国产精品第7页 | 天天干夜夜干 | 中文字幕精品在线 | 日韩电影中文字幕在线观看 | 国产一级不卡毛片 | av日韩国产 | 黄色毛片电影 | 国产在线97 | 夜夜躁日日躁狠狠躁 | 97精品超碰一区二区三区 | 国产aa精品 | av福利网址导航大全 | 久久综合狠狠综合 | 91最新视频在线观看 | 丁香视频全集免费观看 | 国产伦精品一区二区三区免费 | 亚洲日本在线一区 | 久久伦理| av看片网址 | 91成人免费看 | 日韩久久久 | 99色| 九九视频网站 | 国产精品一区二区三区电影 | 91精品免费在线 | 久久久久国产精品厨房 | 91在线永久| 波多野结衣在线视频一区 | 91精品久久香蕉国产线看观看 | 国产高h视频 | 亚洲综合在线五月天 | 日本韩国精品一区二区在线观看 | 国产精品av久久久久久无 | 精品国产一区二区三区av性色 | 午夜精品久久久久久久99无限制 | 开心色停停 | 一级成人免费视频 | 欧美日韩视频一区二区三区 | 日韩免费观看一区二区 | 成人av久久 | 亚州国产精品久久久 | 国产精品高清av | 午夜精品久久 | 久久亚洲影视 | 国产视频二 | 在线激情影院一区 | 日本中文字幕电影在线免费观看 | 久久精品国产第一区二区三区 | 日韩深夜在线观看 | 深夜国产在线 | 91xav| 久久久久夜色 | 日批网站在线观看 | 免费精品人在线二线三线 | 日韩欧美在线综合网 | 99国产精品久久久久久久久久 | 综合网五月天 | 亚洲免费av在线播放 | 国产毛片久久 | 欧洲精品二区 | 中日韩男男gay无套 日韩精品一区二区三区高清免费 | 日韩精品视频免费看 | 天天看天天干天天操 | 极品中文字幕 | 久久精品永久免费 | 激情 一区二区 | 欧美黑人性猛交 | 亚洲经典精品 | 在线免费观看视频 | 91福利视频一区 | 一本—道久久a久久精品蜜桃 | 日韩二区精品 | 91午夜精品 | 国产日产精品一区二区三区四区 | 日韩和的一区二在线 | 色婷婷激情五月 | 久久视频精品在线观看 | 五月婷婷久久丁香 | 成人欧美日韩国产 | 香蕉精品在线观看 | 欧美韩国日本在线 | 久久er99热精品一区二区 | 九色视频网址 | 婷婷九月激情 | 一区二区久久久久 | 日韩在线观看av | 四虎在线免费 | a黄色一级 | 国产黄色免费 | 日韩免费av在线 | 国产欧美日韩视频 | 欧美性猛片, | 色噜噜日韩精品一区二区三区视频 | 91最新国产 | 激情久久伊人 | 国产精品久久久久久久久久久免费看 | 国产成人精品一区二区三区福利 | 亚洲精品影视在线观看 | 日韩国产欧美在线视频 | 欧美成人精品三级在线观看播放 | 欧美日韩在线观看不卡 | 日韩在线免费电影 | 天天射天天操天天色 | 成人h电影在线观看 | 免费进去里的视频 | aaa免费毛片 | 亚洲精品系列 | 超薄丝袜一二三区 | 亚洲美女视频在线观看 | a视频在线观看免费 | 亚洲无吗av| 久草在线视频在线观看 | 欧美日韩亚洲第一页 | 久一久久 | 精品亚洲视频在线 |