conv2d的输入_pytorch1.0中torch.nn.Conv2d用法详解
Conv2d的簡(jiǎn)單使用
torch 包 nn 中 Conv2d 的用法與 tensorflow 中類似,但不完全一樣。
在 torch 中,Conv2d 有幾個(gè)基本的參數(shù),分別是
in_channels 輸入圖像的深度
out_channels 輸出圖像的深度
kernel_size 卷積核大小,正方形卷積只為單個(gè)數(shù)字
stride 卷積步長(zhǎng),默認(rèn)為1
padding 卷積是否造成尺寸丟失,1為不丟失
與tensorflow不一樣的是,pytorch中的使用更加清晰化,我們可以使用這種方法定義輸入與輸出圖像的深度并同時(shí)指定使用的卷積核的大小。
而我們的輸入則由經(jīng)由 Conv2d 定義的參數(shù)傳入,如下所示:
# 定義一個(gè)輸入深度為1,輸出為6,卷積核大小為 3*3 的 conv1 變量
self.conv1 = nn.Conv2d(1, 6, 3)
# 傳入原始輸入x,以獲得長(zhǎng)寬與x相當(dāng),深度為6的卷積部分
x = self.conv1(x)
要注意的是,Conv2d中所需要的輸入順序?yàn)?/p>
batchsize, nChannels, Height, Width
其他的簡(jiǎn)單使用
同樣的,與 Conv2d 類似的函數(shù)還有很多,類似 max_pool2d、relu等等,他們的使用方法與 Conv2d 極為類似,如下所示:
# relu函數(shù)的使用
F.relu(self.conv1(x))
# 池化函數(shù)的使用
F.max_pool2d(F.relu(self.conv2(x)), 2)
以上這篇pytorch1.0中torch.nn.Conv2d用法詳解就是小編分享給大家的全部?jī)?nèi)容了,希望能給大家一個(gè)參考,也希望大家多多支持腳本之家。
總結(jié)
以上是生活随笔為你收集整理的conv2d的输入_pytorch1.0中torch.nn.Conv2d用法详解的全部?jī)?nèi)容,希望文章能夠幫你解決所遇到的問(wèn)題。
- 上一篇: java从数组中删除元素(数组的缩容)
- 下一篇: java用while循环语句输出1-10