卷积神经网络 卷积的概念
文章目錄
- 1 卷積的定義
- 2 圖像像素卷積的計(jì)算(矩陣)
- 3 為何要使用卷積,有什么用?
- 舉例說(shuō)明,為何要翻轉(zhuǎn)(卷)?
- 圖像處理卷積有沒(méi)有必要翻轉(zhuǎn)
- 4 不同類(lèi)型處理對(duì)應(yīng)的矩陣類(lèi)型示例
- 5 圖像卷積是否有快捷計(jì)算工具
1 卷積的定義
共同特征:
2 圖像像素卷積的計(jì)算(矩陣)
f * g:
若:
它這樣做其實(shí)就是把像素點(diǎn)a(1,1)與其四周的像素作平均了,消除差異性,使銜接更加平滑
但是相乘時(shí),為何要沿矩陣中心點(diǎn)對(duì)稱(chēng)相乘我就不懂了??
然后有人回答:
不太懂,有待測(cè)試,,,
3 為何要使用卷積,有什么用?
對(duì)卷積的意義的理解:
從“積”的過(guò)程可以看到,我們得到的疊加值,是個(gè)全局的概念。以信號(hào)分析為例,卷積的結(jié)果是不僅跟當(dāng)前時(shí)刻輸入信號(hào)的響應(yīng)值有關(guān),也跟過(guò)去所有時(shí)刻輸入信號(hào)的響應(yīng)都有關(guān)系,考慮了對(duì)過(guò)去的所有輸入的效果的累積。在圖像處理的中,卷積處理的結(jié)果,其實(shí)就是把每個(gè)像素周邊的,甚至是整個(gè)圖像的像素都考慮進(jìn)來(lái),對(duì)當(dāng)前像素進(jìn)行某種加權(quán)處理。所以說(shuō),“積”是全局概念,或者說(shuō)是一種“混合”,把兩個(gè)函數(shù)在時(shí)間或者空間上進(jìn)行混合。
那為什么要進(jìn)行“卷”?直接相乘不好嗎?我的理解,進(jìn)行“卷”(翻轉(zhuǎn))的目的其實(shí)是施加一種約束,它指定了在“積”的時(shí)候以什么為參照。在信號(hào)分析的場(chǎng)景,它指定了在哪個(gè)特定時(shí)間點(diǎn)的前后進(jìn)行“積”,在空間分析的場(chǎng)景,它指定了在哪個(gè)位置的周邊進(jìn)行累積處理。
(對(duì)呀,為啥要進(jìn)行卷,直接相乘不好嗎??)
舉例說(shuō)明,為何要翻轉(zhuǎn)(卷)?
例1:信號(hào)分析如下圖所示,輸入信號(hào)是 f(t) ,是隨時(shí)間變化的。系統(tǒng)響應(yīng)函數(shù)是 g(t) ,圖中的響應(yīng)函數(shù)是隨時(shí)間指數(shù)下降的,它的物理意義是說(shuō):如果在 t=0 的時(shí)刻有一個(gè)輸入,那么隨著時(shí)間的流逝,這個(gè)輸入將不斷衰減。換言之,到了 t=T時(shí)刻,原來(lái)在 t=0 時(shí)刻的輸入f(0)的值將衰減為f(0)g(T)。
??考慮到信號(hào)是連續(xù)輸入的,也就是說(shuō),每個(gè)時(shí)刻都有新的信號(hào)進(jìn)來(lái),所以,最終輸出的是所有之前輸入信號(hào)的累積效果。如下圖所示,在T=10時(shí)刻,輸出結(jié)果跟圖中帶標(biāo)記的區(qū)域整體有關(guān)。其中,f(10)因?yàn)槭莿傒斎氲?#xff0c;所以其輸出結(jié)果應(yīng)該是f(10)g(0),而時(shí)刻t=9的輸入f(9),只經(jīng)過(guò)了1個(gè)時(shí)間單位的衰減,所以產(chǎn)生的輸出應(yīng)該是 f(9)g(1),如此類(lèi)推,即圖中虛線(xiàn)所描述的關(guān)系。這些對(duì)應(yīng)點(diǎn)相乘然后累加,就是T=10時(shí)刻的輸出信號(hào)值,這個(gè)結(jié)果也是f和g兩個(gè)函數(shù)在T=10時(shí)刻的卷積值。
??顯然,上面的對(duì)應(yīng)關(guān)系看上去比較難看,是擰著的,所以,我們把g函數(shù)對(duì)折一下,變成了g(-t),這樣就好看一些了。看到了嗎?這就是為什么卷積要“卷”,要翻轉(zhuǎn)的原因,這是從它的物理意義中給出的。
上圖雖然沒(méi)有擰著,已經(jīng)順過(guò)來(lái)了,但看上去還有點(diǎn)錯(cuò)位,所以再進(jìn)一步平移T個(gè)單位,就是下圖。它就是本文開(kāi)始給出的卷積定義的一種圖形的表述:
所以,在以上計(jì)算T時(shí)刻的卷積時(shí),要維持的約束就是: t+ (T-t) = T 。這種約束的意義,大家可以自己體會(huì)。
圖像處理卷積有沒(méi)有必要翻轉(zhuǎn)
貌似沒(méi)必要,直接相乘求矩陣內(nèi)積即可
4 不同類(lèi)型處理對(duì)應(yīng)的矩陣類(lèi)型示例
比如說(shuō),如下圖像處理矩陣將使得圖像變得更為平滑,顯得更模糊,因?yàn)樗?lián)合周邊像素進(jìn)行了平均處理:
而如下圖像處理矩陣將使得像素值變化明顯的地方更為明顯,強(qiáng)化邊緣,而變化平緩的地方?jīng)]有影響,達(dá)到提取邊緣的目的:
5 圖像卷積是否有快捷計(jì)算工具
參考文章1:如何通俗易懂地解釋卷積? - 馬同學(xué)的回答 - 知乎
參考文章2:如何通俗易懂地解釋卷積? - palet的回答 - 知乎
總結(jié)
以上是生活随笔為你收集整理的卷积神经网络 卷积的概念的全部?jī)?nèi)容,希望文章能夠幫你解決所遇到的問(wèn)題。
- 上一篇: opencv cv2.flip()函数(
- 下一篇: 图像识别中卷积神经网络“卷积”的作用