日韩性视频-久久久蜜桃-www中文字幕-在线中文字幕av-亚洲欧美一区二区三区四区-撸久久-香蕉视频一区-久久无码精品丰满人妻-国产高潮av-激情福利社-日韩av网址大全-国产精品久久999-日本五十路在线-性欧美在线-久久99精品波多结衣一区-男女午夜免费视频-黑人极品ⅴideos精品欧美棵-人人妻人人澡人人爽精品欧美一区-日韩一区在线看-欧美a级在线免费观看

歡迎訪問 生活随笔!

生活随笔

當前位置: 首頁 > 编程资源 > 编程问答 >内容正文

编程问答

神经网络一丢丢

發布時間:2025/4/16 编程问答 34 豆豆
生活随笔 收集整理的這篇文章主要介紹了 神经网络一丢丢 小編覺得挺不錯的,現在分享給大家,幫大家做個參考.

目錄

  • 神經網絡框架
  • Backpropagation 反向傳播
    • 符號說明
    • 梯度計算 \(\Delta w_j^r=-\mu\mathop{\sum}\limits_{i=1}^{N}\delta_j^r(i)y^{r-1}(i)\)
    • 計算 \(\delta_j^r(i)\)

@

終究有一天,還是得接觸這個讓人捉摸不透的東西。我總感覺他太過神秘,所以對他沒有什么好感。無奈,他如此實用,不得不拜訪一下。我不管什么CNN和RNN,這些花里胡哨的東西,我感覺就像邊角料。
參考《Pattern Recongition》

神經網絡,就其類別來講是非線性判別,而非線性判別,主要是因為激活函數。輸入層得到輸入,經過線性函數(超平面)的分隔,輸入的特征被映射為其他一些特征,如果激活函數是簡單的0-1函數(雖然沒法反向求導了)。就是那樣本映射到超體(是這么形容嗎?)的頂點上,再經過一層,網絡,對上述點進行分隔,幸許就能把樣本成功分類了。當然,這些都是簡單的情況,而且,倆層神經網絡的能力似乎并不夠。

神經網絡框架


這是一個三層神經網絡。

Backpropagation 反向傳播

我不知道有沒有別的什么神經網絡不用這個算法的,我還沒有太深入了解,但我感覺,神經網絡最核心的東西就是反向傳播,還有框架本身。

下面,過一遍這個梯度的計算。

符號說明

\(假定有L層神經元,輸入層有k_0=l個結點(神經元),在第r層有k_r個結點,r=1,2,\ldots,L.\)
\(有N個訓練樣本,(x(i),y(i)),i=1,2,\ldots,N\)


\(w_j^r表示第r層第j個結點\)

權重更新,按照普通的梯度下降為:

\(f(\cdot)為激活函數\)

損失函數(這里以最小平方誤差為例)


梯度計算 \(\Delta w_j^r=-\mu\mathop{\sum}\limits_{i=1}^{N}\delta_j^r(i)y^{r-1}(i)\)

\(首先,y_k^{r-1}(i),是第r-1層第k個結點的輸出(激活后),相應的v_k^{r-1}為沒有激活的輸出。\)
\(而w_{jk}^r是連接r-1層第k個結點和r層第j個結點的權重。\)

\(簡便的寫法就是v_j^r(i)=w_j^{t\mathrm{T}}y^{r-1}(i)\)
\(其中y_0^{r-1}(i)\equiv+1\)
\(那么損失函數關于w_j^r的導數(梯度)就是:\)

\(又\)

\(記\)

\(則:\)

計算 \(\delta_j^r(i)\)

\(r=L\)


\(所以\)

\(r < L\)

\(因為v_j^{r-1}(i)是第r層所有結點的輸入,所以:\)

\(也就是\)

\(令\delta^{r}=[\delta_1^r,\delta_2^r,\ldots,\delta_{k_r}^r]^{\mathrm{T}},那么\)
\(\delta^{r-1}=M^r\delta^r其中M_{jk}^r=\frac{\partial v_k^r}{\partial v_j^{r-1}}又\)

\(所以M_{jk}^r(i)=w_{kj}^r f^{'}(v_j^{r-1}(i))\)

\(所以,總的來說\)
\(\delta^r=M^{r+1}M^{r+2}\ldots M^{L}\delta^L\)
\(這意味著,對于第r層,我們只要記錄w^r(old)和M^r就足夠迭代更新了,而且計算M^r的工作可以在前向傳遞的時候完成,也可以在反向傳播的時候再計算。\)
\(我想,這也是Pytorch等框架計算梯度的原理,當然這只是猜測,因為我還沒有實際上去看。\)

轉載于:https://www.cnblogs.com/MTandHJ/p/10528227.html

總結

以上是生活随笔為你收集整理的神经网络一丢丢的全部內容,希望文章能夠幫你解決所遇到的問題。

如果覺得生活随笔網站內容還不錯,歡迎將生活随笔推薦給好友。