Cs231n课堂内容记录-Lecture 5 卷积神经网络介绍
Lecture 5 CNN
課堂筆記參見:https://zhuanlan.zhihu.com/p/22038289?refer=intelligentunit
不錯的總結筆記:https://blog.csdn.net/sugar_girl/article/details/79108709
1.卷積核步長公式:(N-F+2*padding)/stride+1=new_N? ?
? ? N:原圖形寬,F:filter寬,padding:填充寬度
2.卷積核參數公式:5*5*3的10個filter:5*5*3+1(權重加上偏置,一個卷積核對應一個偏置,相當于一次wx+b運算),然后76*10
3.有時候我們會使用1*1卷積核,這樣做就是在深度上進行點積。
4.步長跟圖像的分辨率有關,當我們使用較大的步長,得到的圖片就是一個下采樣的結果,可以說等同于一種池化處理,但有時候比池化的效果更好。
5.步長跟圖像的分辨率有關,當我們使用較大的步長,得到的圖片就是一個下采樣的結果,可以說等同于一種池化處理,但有時候比池化的效果更好。
6.選用最大池化的原因:卷積結果的每一個值都表示該卷積區域對應神經元的激活程度,或者該位置經卷積核處理后的激活程度。那么最大池化就表示,這組卷積核在圖像任意區域的激活程度(能達到的最大值)。在目標檢測任務中,最大池化是最直觀的,它能將圖像最顯著的特征凸顯出來。
7.全連接層的作用可以理解為回到了之前的樸素神經網絡進行分類,我們不再需要空間結構,將卷積得到的結果一維展開然后進行評分和分類。
8.訓練CNN的demo網頁:
? ?同樣很好用,優點是將各層output以及filter可視化了,整個界面很友好。
? ?https://cs.stanford.edu/people/karpathy/convnetjs/demo/cifar10.html
轉載于:https://www.cnblogs.com/yun-an/p/10178139.html
總結
以上是生活随笔為你收集整理的Cs231n课堂内容记录-Lecture 5 卷积神经网络介绍的全部內容,希望文章能夠幫你解決所遇到的問題。
- 上一篇: 非合作博弈
- 下一篇: 图卷积神经网络_深度层次化图卷积神经网络