tensorflow2知识总结(杂)---2、Adam优化器
tensorflow2知識總結(雜)---2、Adam優化器
一、總結
一句話總結:
1、Adam算法可以看做是修正后的Momentum+RMSProp算法.
2、Adam通常被認為對超參數的選擇相當魯棒
3、學習率建議為0.001
1、反向傳播算法?
每一層的導數都是后一層的導數與前一層輸出之積,這正是鏈式法則的奇妙之處,誤差反向傳播算法利用的正是這一特點。
二、內容在總結中
博客對應課程的視頻位置:
1、反向傳播算法
反向傳播算法是一種高效計算數據流圖中梯度的技術
每一層的導數都是后一層的導數與前一層輸出之積,這正是鏈式法則的奇妙之處,誤差反向傳播算法利用的正是這一特點。
前饋時,從輸入開始,逐一計算每個隱含層的輸出,直到輸出層。
然后開始計算導數,并從輸出層經各隱含層逐一反向傳播。為了減少計算量,還需對所有已完成計算的元素進行復用。
這便是反向傳播算法名稱的由來。
2、常見的優化函數
優化器(optimizer)是編譯模型的所需的兩個參數之一。
你可以先實例化一個優化器對象,然后將它傳入model.compile(),或者你可以通過名稱來調用優化器。在后一種情況下,將使用優化器的默認參數。
SGD:隨機梯度下降優化器
隨機梯度下降優化器SGD和min-batch是同一個意思,抽取m個小批量(獨立同分布)樣本,通過計算他們平梯度均值。
RMSprop:經驗上,RMSProp被證明有效且實用的深度學習網絡優化算法.
RMSProp增加了一個衰減系數來控制歷史信息的獲取多少,RMSProp會對學習率進行衰減。
Adam優化器:
1、Adam算法可以看做是修正后的Momentum+RMSProp算法.
2、Adam通常被認為對超參數的選擇相當魯棒
3、學習率建議為0.001
Adam 是一種可以替代傳統隨機梯度下降過程的一階優化算法,它能基于訓練數據迭代地更新神經網絡權重。
Adam 通過計算梯度的一階矩估計和二階矩估計而為不同的參數設計獨立的自適應性學習率
3、tensorflow的輸出層注意
如果輸出層是一個連續的數字,就不進行其它操作,直接輸出
如果輸出層是一個二分類(是和否),可以對輸出層做一個sigmoid操作,然后輸出
如果輸出層是一個多分類的輸出,我們就可以對輸出層做一個softmax輸出
二分類:輸出層是sigmoid
model.add(tf.keras.layers.Dense(1,activation='sigmoid'))
多分類:輸出層是softmax時
model.add(tf.keras.layers.Dense(10,activation='softmax'))
我的旨在學過的東西不再忘記(主要使用艾賓浩斯遺忘曲線算法及其它智能學習復習算法)的偏公益性質的完全免費的編程視頻學習網站:
fanrenyi.com;有各種前端、后端、算法、大數據、人工智能等課程。
版權申明:歡迎轉載,但請注明出處
一些博文中有一些參考內容因時間久遠找不到來源了沒有注明,如果侵權請聯系我刪除。
博主25歲,前端后端算法大數據人工智能都有興趣。
大家有啥都可以加博主聯系方式(qq404006308,微信fan404006308)互相交流。工作、生活、心境,可以互相啟迪。
聊技術,交朋友,修心境,qq404006308,微信fan404006308
26歲,真心找女朋友,非誠勿擾,微信fan404006308,qq404006308
人工智能群:939687837
作者相關推薦
#fry_added_part .inspiration_content{
//max-height: 120px;
overflow: auto;
margin: 20px 0;
}
#fry_added_part .fry_inspiration .simple a{
margin-right: 25px;
}
感悟總結
其它重要感悟總結
感悟總結200813
最近心境200830
最近心境201019
201218-210205
總結
以上是生活随笔為你收集整理的tensorflow2知识总结(杂)---2、Adam优化器的全部內容,希望文章能夠幫你解決所遇到的問題。
- 上一篇: ERA5气压层数据驱动WRF的一些问题
- 下一篇: Linux下载——下载文件的命令