卷积神经网络 卷积的概念
文章目錄
- 1 卷積的定義
- 2 圖像像素卷積的計算(矩陣)
- 3 為何要使用卷積,有什么用?
- 舉例說明,為何要翻轉(卷)?
- 圖像處理卷積有沒有必要翻轉
- 4 不同類型處理對應的矩陣類型示例
- 5 圖像卷積是否有快捷計算工具
1 卷積的定義
共同特征:
2 圖像像素卷積的計算(矩陣)
f * g:
若:
它這樣做其實就是把像素點a(1,1)與其四周的像素作平均了,消除差異性,使銜接更加平滑
但是相乘時,為何要沿矩陣中心點對稱相乘我就不懂了??
然后有人回答:
不太懂,有待測試,,,
3 為何要使用卷積,有什么用?
對卷積的意義的理解:
從“積”的過程可以看到,我們得到的疊加值,是個全局的概念。以信號分析為例,卷積的結果是不僅跟當前時刻輸入信號的響應值有關,也跟過去所有時刻輸入信號的響應都有關系,考慮了對過去的所有輸入的效果的累積。在圖像處理的中,卷積處理的結果,其實就是把每個像素周邊的,甚至是整個圖像的像素都考慮進來,對當前像素進行某種加權處理。所以說,“積”是全局概念,或者說是一種“混合”,把兩個函數(shù)在時間或者空間上進行混合。
那為什么要進行“卷”?直接相乘不好嗎?我的理解,進行“卷”(翻轉)的目的其實是施加一種約束,它指定了在“積”的時候以什么為參照。在信號分析的場景,它指定了在哪個特定時間點的前后進行“積”,在空間分析的場景,它指定了在哪個位置的周邊進行累積處理。
(對呀,為啥要進行卷,直接相乘不好嗎??)
舉例說明,為何要翻轉(卷)?
例1:信號分析如下圖所示,輸入信號是 f(t) ,是隨時間變化的。系統(tǒng)響應函數(shù)是 g(t) ,圖中的響應函數(shù)是隨時間指數(shù)下降的,它的物理意義是說:如果在 t=0 的時刻有一個輸入,那么隨著時間的流逝,這個輸入將不斷衰減。換言之,到了 t=T時刻,原來在 t=0 時刻的輸入f(0)的值將衰減為f(0)g(T)。
??考慮到信號是連續(xù)輸入的,也就是說,每個時刻都有新的信號進來,所以,最終輸出的是所有之前輸入信號的累積效果。如下圖所示,在T=10時刻,輸出結果跟圖中帶標記的區(qū)域整體有關。其中,f(10)因為是剛輸入的,所以其輸出結果應該是f(10)g(0),而時刻t=9的輸入f(9),只經(jīng)過了1個時間單位的衰減,所以產(chǎn)生的輸出應該是 f(9)g(1),如此類推,即圖中虛線所描述的關系。這些對應點相乘然后累加,就是T=10時刻的輸出信號值,這個結果也是f和g兩個函數(shù)在T=10時刻的卷積值。
??顯然,上面的對應關系看上去比較難看,是擰著的,所以,我們把g函數(shù)對折一下,變成了g(-t),這樣就好看一些了。看到了嗎?這就是為什么卷積要“卷”,要翻轉的原因,這是從它的物理意義中給出的。
上圖雖然沒有擰著,已經(jīng)順過來了,但看上去還有點錯位,所以再進一步平移T個單位,就是下圖。它就是本文開始給出的卷積定義的一種圖形的表述:
所以,在以上計算T時刻的卷積時,要維持的約束就是: t+ (T-t) = T 。這種約束的意義,大家可以自己體會。
圖像處理卷積有沒有必要翻轉
貌似沒必要,直接相乘求矩陣內(nèi)積即可
4 不同類型處理對應的矩陣類型示例
比如說,如下圖像處理矩陣將使得圖像變得更為平滑,顯得更模糊,因為它聯(lián)合周邊像素進行了平均處理:
而如下圖像處理矩陣將使得像素值變化明顯的地方更為明顯,強化邊緣,而變化平緩的地方?jīng)]有影響,達到提取邊緣的目的:
5 圖像卷積是否有快捷計算工具
參考文章1:如何通俗易懂地解釋卷積? - 馬同學的回答 - 知乎
參考文章2:如何通俗易懂地解釋卷積? - palet的回答 - 知乎
總結
以上是生活随笔為你收集整理的卷积神经网络 卷积的概念的全部內(nèi)容,希望文章能夠幫你解決所遇到的問題。
- 上一篇: opencv cv2.flip()函数(
- 下一篇: 图像识别中卷积神经网络“卷积”的作用