吴恩达 coursera AI 专项二第二课总结+作业答案
生活随笔
收集整理的這篇文章主要介紹了
吴恩达 coursera AI 专项二第二课总结+作业答案
小編覺得挺不錯(cuò)的,現(xiàn)在分享給大家,幫大家做個(gè)參考.
前言
吳恩達(dá)的課程堪稱經(jīng)典,有必要總結(jié)一下。
學(xué)以致用,以學(xué)促用,通過筆記總結(jié),鞏固學(xué)習(xí)成果,復(fù)習(xí)新學(xué)的概念。
目錄
文章目錄
- 前言
- 目錄
- 正文
- 局部最小值問題
正文
優(yōu)化算法 隨機(jī)樣本梯度下降
批量和小批量梯度下降的比較。
小批量梯度下降算法
批量和小批量下降時(shí)的誤差曲線。
選擇你的樣本規(guī)模
典型的小批量數(shù)量選擇方式。
倫敦的氣溫,指數(shù)化歸一加權(quán)。
指數(shù)化加權(quán)平均。
通過加權(quán)平均,平滑變化率。
手動(dòng)實(shí)現(xiàn)一個(gè)加權(quán)平均。
梯度計(jì)算中的偏差校正
梯度下降中的例子,有時(shí)候震蕩回比較厲害。
momentum(動(dòng)量)更新的實(shí)現(xiàn)細(xì)節(jié)。
梯度更新的方法。
Adam優(yōu)化算法.
超參數(shù)選擇方案。
學(xué)習(xí)率更新方案。
學(xué)習(xí)率下降方案,更適應(yīng)具體的問題。
其他的學(xué)習(xí)率下降方法。
局部最小值問題
算法有可能收斂到局部最小值,鞍點(diǎn)。
平原問題,更新較慢,但仍在更新。
總結(jié)
以上是生活随笔為你收集整理的吴恩达 coursera AI 专项二第二课总结+作业答案的全部內(nèi)容,希望文章能夠幫你解決所遇到的問題。
- 上一篇: linux将所有文件生成lst_10行P
- 下一篇: 吴恩达 coursera AI 专项二第