pytorch笔记:torch.nn.MaxPool2d
1 基本用法
class torch.nn.MaxPool2d(kernel_size, stride=None, padding=0, dilation=1, return_indices=False, ceil_mode=False)2 參數(shù)詳解
| kernel_size | ????????最大池化窗口的大小,類型為int 或者元組, ????????當(dāng)最大池化窗口是方形的時(shí)候,只需要一個(gè)整數(shù)邊長(zhǎng)即可;最大池化窗口不是方形時(shí),要輸入一個(gè)元組表示 高和寬?!颈剡x】 ????????每次將輸入池化操作的kernel_size大小的內(nèi)容進(jìn)行最大池化操作得到一個(gè)結(jié)果 |
| stride | 最大池化窗口每次滑動(dòng)的步長(zhǎng)為多少,默認(rèn)是 kernel_size【可選】 以kernel_size為1為例,會(huì)有: 這一輪考慮的是a[i][j],下一輪考慮的就是a[i][j+stride] |
| padding | 設(shè)置在所有邊界增加 值為 0 的邊距的大小(也就是在feature map 外圍增加幾圈 0 ) 例如當(dāng) padding =1 的時(shí)候,如果原來(lái)大小為 3 × 3 ,那么之后的大小為 5 × 5 。即在外圍加了一圈 0 ?!究蛇x】 padding的作用是為了維護(hù)輸出的維度 |
| dilation | 控制最大池化窗口之間的間距【可選】 如果我們?cè)O(shè)置的dilation=0的話,效果如圖:(藍(lán)色為輸入,綠色為輸出,最大池化窗口為3 × 3) 如果設(shè)置的是dilation=1,那么效果如圖:(藍(lán)色為輸入,綠色為輸出,最大池化窗口卷積核仍為 3 × 3 。) |
| ceil_mode | 如果等于True,計(jì)算輸出信號(hào)大小的時(shí)候,會(huì)使用向上取整,代替默認(rèn)的向下取整的操作 |
3 輸入輸出形狀
假設(shè)輸入形狀為:,輸出形狀為:
(batchsize, channel, height, width)
那么,根據(jù)MaxPool2d的參數(shù),我們有:
《新程序員》:云原生和全面數(shù)字化實(shí)踐50位技術(shù)專家共同創(chuàng)作,文字、視頻、音頻交互閱讀總結(jié)
以上是生活随笔為你收集整理的pytorch笔记:torch.nn.MaxPool2d的全部?jī)?nèi)容,希望文章能夠幫你解決所遇到的問(wèn)題。
- 上一篇: 机器学习笔记:误差的来源(bias v
- 下一篇: 机器学习笔记:ResNet 及残差连接