日韩性视频-久久久蜜桃-www中文字幕-在线中文字幕av-亚洲欧美一区二区三区四区-撸久久-香蕉视频一区-久久无码精品丰满人妻-国产高潮av-激情福利社-日韩av网址大全-国产精品久久999-日本五十路在线-性欧美在线-久久99精品波多结衣一区-男女午夜免费视频-黑人极品ⅴideos精品欧美棵-人人妻人人澡人人爽精品欧美一区-日韩一区在线看-欧美a级在线免费观看

歡迎訪問 生活随笔!

生活随笔

當前位置: 首頁 > 人工智能 > pytorch >内容正文

pytorch

01.神经网络和深度学习 W4.深层神经网络

發布時間:2024/7/5 pytorch 31 豆豆
生活随笔 收集整理的這篇文章主要介紹了 01.神经网络和深度学习 W4.深层神经网络 小編覺得挺不錯的,現在分享給大家,幫大家做個參考.

文章目錄

    • 1. 深層神經網絡
    • 2. 前向傳播和反向傳播
    • 3. 核對矩陣維數
    • 4. 參數、超參數

參考:
吳恩達視頻課
深度學習筆記

1. 深層神經網絡

有的時候只有非常深的神經網絡才能發揮作用。

但是無法提前預知多少層的神經網絡合適,可以先嘗試邏輯回歸,嘗試一層,然后兩層隱含層,然后把隱含層的數量當作超參數,然后交叉驗證

2. 前向傳播和反向傳播

前向傳播

  • 輸入: a[l?1]a^{[l-1]}a[l?1]
  • 輸出:a[l]a^{[l]}a[l]
  • 緩存:z[l],w[l],b[l]z^{[l]},w^{[l]},b^{[l]}z[l],w[l],b[l]

z[l]=W[l]?a[l?1]+b[l]z^{[l]}=W^{[l]} \cdot a^{[l-1]}+b^{[l]}z[l]=W[l]?a[l?1]+b[l]
a[l]=g[l](z[l])a^{[l]}=g^{[l]}\left(z^{[l]}\right)a[l]=g[l](z[l])

向量化寫法
z[l]=W[l]?A[l?1]+b[l]z^{[l]}=W^{[l]} \cdot A^{[l-1]}+b^{[l]}z[l]=W[l]?A[l?1]+b[l]
A[l]=g[l](Z[l])A^{[l]}=g^{[l]}\left(Z^{[l]}\right)A[l]=g[l](Z[l])

后向傳播

  • 輸入: da[l]da^{[l]}da[l]
  • 輸出: da[l?1],dw[l],db[l]da^{[l-1]},dw^{[l]},db^{[l]}da[l?1]dw[l]db[l]

dz[l]=da[l]?g[l]′(z[l])dw[l]=dz[l]?a[l?1]db[l]=dz[l]da[l?1]=w[l]T?dz[l]dz[l]=w[l+1]Tdz[l+1]?g[l]′(z[l])\begin{array}{l}d z^{[l]}=d a^{[l]} * g^{[l]^{\prime}}\left(z^{[l]}\right) \\ d w^{[l]}=d z^{[l]} \cdot a^{[l-1]} \\ d b^{[l]}=d z^{[l]} \\ d a^{[l-1]}=w^{[l] T} \cdot d z^{[l]} \\ d z^{[l]}=w^{[l+1] T} d z^{[l+1]} \cdot g^{[l]^{\prime}}\left(z^{[l]}\right)\end{array}dz[l]=da[l]?g[l](z[l])dw[l]=dz[l]?a[l?1]db[l]=dz[l]da[l?1]=w[l]T?dz[l]dz[l]=w[l+1]Tdz[l+1]?g[l](z[l])?

向量化寫法
dZ[l]=dA[l]?g[l]′(Z[l])dW[l]=1mdZ[l]?A[l?1]Tdb[l]=1mnp?sum?(dz[l],axis=1,keepdims?=True)dA[l?1]=W[l]T?dZ[l]\begin{array}{l}d Z^{[l]}=d A^{[l]} * g^{[l]^{\prime}}\left(Z^{[l]}\right) \\ d W^{[l]}=\frac{1}{m} d Z^{[l]} \cdot A^{[l-1] T} \\ d b^{[l]}=\frac{1}{m} n p \cdot \operatorname{sum}\left(d z^{[l]}, \text {axis}=1, \text { keepdims }=\text {True}\right) \\ d A^{[l-1]}=W^{[l] T} \cdot d Z^{[l]}\end{array}dZ[l]=dA[l]?g[l](Z[l])dW[l]=m1?dZ[l]?A[l?1]Tdb[l]=m1?np?sum(dz[l],axis=1,?keepdims?=True)dA[l?1]=W[l]T?dZ[l]?

3. 核對矩陣維數

4. 參數、超參數

參數有 W, b

超參數:

  • 學習率
  • 梯度下降 迭代次數
  • 隱藏層數量
  • 隱藏層單元數量
  • 激活函數選擇
  • momentum
  • mini batch size
  • 正則化參數

多種組合,各種嘗試,選擇效果最好的參數組合,第二門課會介紹

總結

以上是生活随笔為你收集整理的01.神经网络和深度学习 W4.深层神经网络的全部內容,希望文章能夠幫你解決所遇到的問題。

如果覺得生活随笔網站內容還不錯,歡迎將生活随笔推薦給好友。