日韩性视频-久久久蜜桃-www中文字幕-在线中文字幕av-亚洲欧美一区二区三区四区-撸久久-香蕉视频一区-久久无码精品丰满人妻-国产高潮av-激情福利社-日韩av网址大全-国产精品久久999-日本五十路在线-性欧美在线-久久99精品波多结衣一区-男女午夜免费视频-黑人极品ⅴideos精品欧美棵-人人妻人人澡人人爽精品欧美一区-日韩一区在线看-欧美a级在线免费观看

歡迎訪問 生活随笔!

生活随笔

當前位置: 首頁 > 编程资源 > 编程问答 >内容正文

编程问答

CNN的卷积运算为何使用互相关而不是卷积

發布時間:2023/12/20 编程问答 27 豆豆
生活随笔 收集整理的這篇文章主要介紹了 CNN的卷积运算为何使用互相关而不是卷积 小編覺得挺不錯的,現在分享給大家,幫大家做個參考.

CNN的卷積運算并非數學定義的卷積
也就是說,CNN中的運算是不需要翻轉卷積核的。
也就是說,CNN在處理圖像時的卷積核是不需要翻轉180°的
我們來用代碼看下為什么?

#-*- coding:utf-8 -*- import sys reload(sys) sys.setdefaultencoding('utf-8')import numpy as np A=np.array([[0,0,0,0],\[0,0,30,0],\[0,60,0,0],\[0,0,0,0]])B=np.array([[0.1,0.01],\[1,10]]) import scipy.signal print"---------卷積結果---------------------" print scipy.signal.convolve(A,B,mode='valid') print"---------互相關結果---------------------" print scipy.signal.correlate(A,B,mode='valid')

運行結果為:
---------卷積結果---------------------
[[0.00e+00 3.00e+00 3.00e-01]
[6.00e+00 3.06e+01 3.00e+02]
[6.00e+01 6.00e+02 0.00e+00]]
---------互相關結果---------------------
[[ 0. 300. 30. ]
[600. 60.3 3. ]
[ 0.6 6. 0. ]]

因為卷積層后面連接的是池化層,
也就是說把卷積結果得到的矩陣中,
選取矩陣中數值最大的元素作為保留,矩陣中其余元素一律刪除。

所以我們可以看到:
上述代碼的
卷積結果中的最大值

互相關結果矩陣中的最大值
都是600
因此后面maxpooling層進行池化后得到的值也都是600.

如果后面接全連接層,那么
上面兩個矩陣全部flatten以后輸入dense層,幾乎完全一致,也不影響建模

結論:
CNN中使用卷積或互相關,對于
的貢獻是一致的,都是獲取像素最大的那個值,
因此可以使用卷積,也可以使用互相關,
但是為了代碼的高效,直接使用“互相關”即可。

總結

以上是生活随笔為你收集整理的CNN的卷积运算为何使用互相关而不是卷积的全部內容,希望文章能夠幫你解決所遇到的問題。

如果覺得生活随笔網站內容還不錯,歡迎將生活随笔推薦給好友。