神经网络与卷积神经网络入门(保证让你懂)
生活随笔
收集整理的這篇文章主要介紹了
神经网络与卷积神经网络入门(保证让你懂)
小編覺(jué)得挺不錯(cuò)的,現(xiàn)在分享給大家,幫大家做個(gè)參考.
我一直搞不懂神經(jīng)網(wǎng)絡(luò)是怎么工作的以及為什么cnn要卷積池化就能達(dá)到圖像分割的目的
直到我看到了深度之眼的課程
我先用通俗易懂的語(yǔ)言解釋一下神經(jīng)網(wǎng)絡(luò)說(shuō)白了就是利用鏈?zhǔn)角髮?dǎo)法則將loss函數(shù)對(duì)權(quán)重w求導(dǎo),然后通過(guò)梯度下降的方向調(diào)整w使loss函數(shù)值最小,這也就是所謂的反向傳播算法。卷積神經(jīng)網(wǎng)絡(luò)就是卷積和池化操作,因?yàn)檫@兩個(gè)操作符合圖像識(shí)別的三個(gè)特性,所以能達(dá)到圖像分割的作用,核心點(diǎn)是卷積核上的每個(gè)值就是權(quán)重,圖像是以矩陣的形式存在計(jì)算機(jī)的,所以這一些條件是cnn可以進(jìn)行圖像分割的基礎(chǔ),也是神經(jīng)網(wǎng)絡(luò)用于圖像分割的原因。
?
其中涉及了一個(gè)正則化的問(wèn)題,正則化為什么能減輕過(guò)擬合現(xiàn)象呢,是因?yàn)樗軠p小w權(quán)重,w越小說(shuō)明數(shù)據(jù)擾動(dòng)對(duì)結(jié)果影響越小。
?
總結(jié)
以上是生活随笔為你收集整理的神经网络与卷积神经网络入门(保证让你懂)的全部?jī)?nèi)容,希望文章能夠幫你解決所遇到的問(wèn)題。
- 上一篇: 直方图均衡化为何需要累积概率的通俗解释,
- 下一篇: pytorch张量的简介与创建(代码)