AMiner推荐论文:SMU: smooth activation function for deep networks using smoothing maximum technique
論文鏈接:
https://www.aminer.cn/pub/6189e6d15244ab9dcb76ebc9?f=cs
神經(jīng)網(wǎng)絡(luò)是深度學(xué)習(xí)的支柱。激活函數(shù)是神經(jīng)網(wǎng)絡(luò)的大腦,在深度神經(jīng)網(wǎng)絡(luò)的有效性和訓(xùn)練中起著核心作用。ReLU由于其簡單性而成為深度學(xué)習(xí)領(lǐng)域的常用選擇。盡管它很簡單,但ReLU有一個主要的缺點(diǎn),即ReLU死亡問題,在這種情況下,多達(dá)50%的神經(jīng)元在網(wǎng)絡(luò)訓(xùn)練期間死亡。
為了克服ReLU的不足,近年來提出了大量的激活方法,其中Leaky ReLU、Parametric ReLU 、ELU、Softplus、隨機(jī)化Leaky ReLU是其中的幾種,它們在一定程度上改善了ReLU的性能。
Swish是谷歌腦組提出的非線性激活函數(shù),對ReLU有一定的改善;GELU是另一種常用的平滑激活函數(shù)。可以看出,Swish和GELU都是ReLU的光滑近似。近年來,人們提出了一些提高ReLU、Swish或GELU性能的非線性激活方法,其中一些是ReLU或Leaky ReLU的光滑逼近方法,還有TanhSoft、EIS、Padé激活單元、正交Padé激活單元、Mish、ErfAct等。
maximum function在原點(diǎn)處是非光滑的。在本文中,作者將探討maximum function的平滑逼近如何影響網(wǎng)絡(luò)的訓(xùn)練和性能。
AMiner,讓AI幫你理解科學(xué)!https://www.aminer.cn
總結(jié)
以上是生活随笔為你收集整理的AMiner推荐论文:SMU: smooth activation function for deep networks using smoothing maximum technique的全部內(nèi)容,希望文章能夠幫你解決所遇到的問題。
- 上一篇: 大印文化:李万博老师《总裁演说思维》课程
- 下一篇: 那些消失的安卓技术博主们