机器学习笔记: Upsampling, U-Net, Pyramid Scene Parsing Net
前言
????????在CNN-based 的 模型中,我們可能會用到downsampling 操作來減少模型參數,以及擴大感受野的效果。
? ? ? ? 下圖是一個graph segmentation的例子,就先使用 downsampling來減少每個image的size,再使用upsampling來將size還原回最初大小?
1 Upsampling
downsampling 即 池化操作,在機器學習筆記:CNN卷積神經網絡_UQI-LIUWJ的博客-CSDN博客里面已經提到過了,這里就不說了,我們這里說一下怎么將image的size 提升上去
1.1? 最原始的方法
這種方式顯然不是理想的方式,因為它添加的信息僅僅是冗余的信息,?同時使得整個image不連續
1.2 Nearest neighbor
?1.3 雙線性插值
注意左側圖的陰影小點
?1.4 Max unpooling
????????模型中存儲 max pooling 操作中,都是哪些位置的值成為了池化結果。然后在max unpooling的時候在這些位置填充值
2 up convolution
那么既然池化操作有“逆運算”,那么卷積操作有嗎?
答案是有的。
我們同樣設置filter,讓相應位置的值乘以這個filter,將結果拼接成一個大size 的image
?????????對于重疊的部分,我們可以取mean,取max等各種操作。而比如我們需要4*4的矩陣,在矩陣之外的部分可以去掉。????????
2.1 舉例:1維“逆卷積”
3 U-net
????????但是上述的這種down&up sampling問題有一個很明顯,就是經過downsampling之后,一些細節方面的信息會丟失
????????于是U-net便采用了這樣的一種思路,把高分辨率的image直接傳給之后的神經網絡,和經過down&up sampling后相同size的image經過某種方式融合在一起? ? ??
4??Pyramid Scene Parsing Net
這個和upsampling沒有關系,只是另一種解決detail 信息丟失的辦法。
我們可以設立不同size的池化層,然后將不同size池化層的池化結果 用某種方式concatenate起來
?
《新程序員》:云原生和全面數字化實踐50位技術專家共同創作,文字、視頻、音頻交互閱讀總結
以上是生活随笔為你收集整理的机器学习笔记: Upsampling, U-Net, Pyramid Scene Parsing Net的全部內容,希望文章能夠幫你解決所遇到的問題。
- 上一篇: 强化学习笔记: MDP - Policy
- 下一篇: 机器学习笔记: Discriminati