padding和卷积的区别_TensorFlow笔记1——20.CNN卷积神经网络padding两种模式SAME和VALID...
第1種解說(shuō):(核心最后一張圖,兩種填充方式輸出的形狀尺寸計(jì)算公式)
在用tensorflow寫CNN的時(shí)候,調(diào)用卷積核api的時(shí)候,會(huì)有填padding方式的參數(shù),找到源碼中的函數(shù)定義如下(max pooling也是一樣):
def conv2d(input, filter, strides, padding, use_cudnn_on_gpu=None, data_format=None, name=None)源碼中對(duì)于padding參數(shù)的說(shuō)明如下:
padding: A string from: "SAME", "VALID". The type of padding algorithm to use.說(shuō)了padding可以用“SAME”和“VALID”兩種方式,但是對(duì)于這兩種方式具體是什么并沒有多加說(shuō)明。 這里用Stack Overflow中的一份代碼來(lái)簡(jiǎn)單說(shuō)明一下,代碼如下:
x = tf.constant([[1., 2., 3.],[4., 5., 6.]]) x = tf.reshape(x, [1, 2, 3, 1]) # give a shape accepted by tf.nn.max_pool valid_pad = tf.nn.max_pool(x, [1, 2, 2, 1], [1, 2, 2, 1], padding='VALID') same_pad = tf.nn.max_pool(x, [1, 2, 2, 1], [1, 2, 2, 1], padding='SAME')print(valid_pad.get_shape()) print(same_pad.get_shape()) # 最后輸出的結(jié)果為: (1, 1, 1, 1) (1, 1, 2, 1)可以看出“SAME”的填充方式是比“VALID”的填充方式多了一列。 讓我們來(lái)看看變量x是一個(gè)2x3的矩陣,max pooling窗口為2x2,兩個(gè)維度的strides=2。 第一次由于窗口可以覆蓋(橙色區(qū)域做max pool操作),沒什么問題,如下:
接下來(lái)就是“SAME”和“VALID”的區(qū)別所在,由于步長(zhǎng)為2,當(dāng)向右滑動(dòng)兩步之后“VALID”發(fā)現(xiàn)余下的窗口不到2x2所以就把第三列直接去了,而“SAME”并不會(huì)把多出的一列丟棄,但是只有一列了不夠2x2怎么辦?填充!
如上圖所示,“SAME”會(huì)增加第四列以保證可以達(dá)到2x2,但為了不影響原來(lái)的圖像像素信息,一般以0來(lái)填充。(這里使用表格的形式展示,markdown不太好控制格式,明白意思就行),這就不難理解不同的padding方式輸出的形狀會(huì)有所不同了。
在CNN用在文本中時(shí),一般卷積層設(shè)置卷積核的大小為n×k,其中k為輸入向量的維度(即[n,k,input_channel_num,output_channel_num]),這時(shí)候我們就需要選擇“VALID”填充方式,這時(shí)候窗口僅僅是沿著一個(gè)維度掃描而不是兩個(gè)維度。可以理解為統(tǒng)計(jì)語(yǔ)言模型當(dāng)中的N-gram。我們?cè)O(shè)計(jì)網(wǎng)絡(luò)結(jié)構(gòu)時(shí)需要設(shè)置輸入輸出的shape,源碼nn_ops.py中的convolution函數(shù)和pool函數(shù)給出的計(jì)算公式如下:
If padding == "SAME":output_spatial_shape[i] = ceil(input_spatial_shape[i] / strides[i])If padding == "VALID":output_spatial_shape[i] =ceil((input_spatial_shape[i] -(spatial_filter_shape[i]-1) * dilation_rate[i])/ strides[i]).dilation_rate為一個(gè)可選的參數(shù),默認(rèn)為1,這里我們可以先不管它。 整理一下,對(duì)于“VALID”,輸出的形狀計(jì)算如下:
參考<https://cloud.tencent.com/developer/article/1012365>
第2種解說(shuō):利用tf.nn.conv2d示例來(lái)理解 strides, padding效果
這里先再簡(jiǎn)單重復(fù)一下tf.nn.conv2d使用,其基本參數(shù)的使用規(guī)范同樣也適用于其他CNN語(yǔ)句
tf.nn.conv2d (input, filter, strides, padding, use_cudnn_on_gpu=None, data_format=None, name=None)- input : 輸入的要做卷積的圖片,要求為一個(gè)張量,shape為 [ batch, in_height, in_weight, in_channel ],其中batch為圖片的數(shù)量,in_height 為圖片高度,in_weight 為圖片寬度,in_channel 為圖片的通道數(shù),灰度圖該值為1,彩色圖為3。(也可以用其它值,但是具體含義不是很理解)
- filter: 卷積核,要求也是一個(gè)張量,shape為 [ filter_height, filter_weight, in_channel, out_channels ],其中 filter_height 為卷積核高度,filter_weight 為卷積核寬度,in_channel 是圖像通道數(shù) ,和 input 的 in_channel 要保持一致,out_channel 是卷積核數(shù)量。
- strides: 卷積時(shí)在圖像每一維的步長(zhǎng),這是一個(gè)一維的向量,[ 1, strides, strides, 1],第一位和最后一位固定必須是1
- padding: string類型,值為“SAME” 和 “VALID”,表示的是卷積的形式,是否考慮邊界。"SAME"是考慮邊界,不足的時(shí)候用0去填充周圍,"VALID"則不考慮
- use_cudnn_on_gpu: bool類型,是否使用cudnn加速,默認(rèn)為true
# 運(yùn)行結(jié)果
運(yùn)行結(jié)果這里就省略了,太長(zhǎng)了,所以不寫這里了。復(fù)制語(yǔ)句到Jupyter中運(yùn)行一下就懂了參考<理解tf.nn.conv2d方法>
總結(jié)
以上是生活随笔為你收集整理的padding和卷积的区别_TensorFlow笔记1——20.CNN卷积神经网络padding两种模式SAME和VALID...的全部?jī)?nèi)容,希望文章能夠幫你解決所遇到的問題。
- 上一篇: matlab2012b安装教程
- 下一篇: 清华大学《操作系统》(十八):管程于信号