吴恩达神经网络和深度学习——第四周笔记
生活随笔
收集整理的這篇文章主要介紹了
吴恩达神经网络和深度学习——第四周笔记
小編覺得挺不錯的,現在分享給大家,幫大家做個參考.
Week 4
?
4-1深層神經網絡
這是我們之前學過的邏輯回歸和單隱藏層神經網絡,如今我們要接觸更深的神經網絡,比如下圖的雙隱藏層神經網絡和五層的神經網絡:
首先,我們對深層神經網絡進行一個符號約定:
4-2深層網絡中的前向傳播
首先這是一個深層的網絡:
深層網絡的前向傳播用符號表示其實就是兩部分:其中小寫的l代表的是第幾層
接著是向量化:
4-3核對矩陣的維數
當我們實現深度神經網絡的時候,我們常用的一個檢查代碼是否存在錯誤的辦法就是:用紙過一遍算法中矩陣的維數!
接下來是參數維數的總結:
4-4為什么使用深層表示
為什么神經網絡好用?
舉例:當你在構建一個人臉識別系統時,當你輸入一張臉部的照片,然后把神經網絡的第一層當成一個特征探測器或者說是邊緣探測器。接著就能夠提取到一些特征,然后將這些特征組合在一起。
當然,神經網絡不是越深越好,具體情況具體分析。
4-5搭建深層神經網絡塊
網絡的每一層都對應著前向傳播和反向傳播:
4-6前向傳播和反向傳播
前向傳播的輸入與輸出:
向量化之后:
反向傳播的輸入與輸出:
向量化之后:
4-7參數和超參數
想要深度神經網絡起到很好的效果,還需要規劃好參數,以及超參數。也許會問,什么是超參數呢?別急,我們先看看參數有哪些。這些就是參數:
當然,在學習算法的時候還需要有其他的參數,需要學習到算法中,比如學習率、梯度下降算法循環的的數量、隱層數、隱藏單元、激活函數……這些數字都需要自己來設置,而這些數字就控制了最后參數W和b的值。所以以上這幾種就是超參數!(當然還有其他的超參數:如mini_batch、等)
?
總結
以上是生活随笔為你收集整理的吴恩达神经网络和深度学习——第四周笔记的全部內容,希望文章能夠幫你解決所遇到的問題。
- 上一篇: 吴恩达神经网络和深度学习——第三周笔记
- 下一篇: 吴恩达卷积神经网络课程——第一周笔记