日韩性视频-久久久蜜桃-www中文字幕-在线中文字幕av-亚洲欧美一区二区三区四区-撸久久-香蕉视频一区-久久无码精品丰满人妻-国产高潮av-激情福利社-日韩av网址大全-国产精品久久999-日本五十路在线-性欧美在线-久久99精品波多结衣一区-男女午夜免费视频-黑人极品ⅴideos精品欧美棵-人人妻人人澡人人爽精品欧美一区-日韩一区在线看-欧美a级在线免费观看

歡迎訪問 生活随笔!

生活随笔

當(dāng)前位置: 首頁 > 编程资源 > 编程问答 >内容正文

编程问答

AMiner推荐论文:SMU: smooth activation function for deep networks using smoothing maximum technique

發(fā)布時間:2024/1/18 编程问答 36 豆豆
生活随笔 收集整理的這篇文章主要介紹了 AMiner推荐论文:SMU: smooth activation function for deep networks using smoothing maximum technique 小編覺得挺不錯的,現(xiàn)在分享給大家,幫大家做個參考.

論文鏈接:
https://www.aminer.cn/pub/6189e6d15244ab9dcb76ebc9?f=cs
神經(jīng)網(wǎng)絡(luò)是深度學(xué)習(xí)的支柱。激活函數(shù)是神經(jīng)網(wǎng)絡(luò)的大腦,在深度神經(jīng)網(wǎng)絡(luò)的有效性和訓(xùn)練中起著核心作用。ReLU由于其簡單性而成為深度學(xué)習(xí)領(lǐng)域的常用選擇。盡管它很簡單,但ReLU有一個主要的缺點(diǎn),即ReLU死亡問題,在這種情況下,多達(dá)50%的神經(jīng)元在網(wǎng)絡(luò)訓(xùn)練期間死亡。
為了克服ReLU的不足,近年來提出了大量的激活方法,其中Leaky ReLU、Parametric ReLU 、ELU、Softplus、隨機(jī)化Leaky ReLU是其中的幾種,它們在一定程度上改善了ReLU的性能。
Swish是谷歌腦組提出的非線性激活函數(shù),對ReLU有一定的改善;GELU是另一種常用的平滑激活函數(shù)。可以看出,Swish和GELU都是ReLU的光滑近似。近年來,人們提出了一些提高ReLU、Swish或GELU性能的非線性激活方法,其中一些是ReLU或Leaky ReLU的光滑逼近方法,還有TanhSoft、EIS、Padé激活單元、正交Padé激活單元、Mish、ErfAct等。
maximum function在原點(diǎn)處是非光滑的。在本文中,作者將探討maximum function的平滑逼近如何影響網(wǎng)絡(luò)的訓(xùn)練和性能。
AMiner,讓AI幫你理解科學(xué)!https://www.aminer.cn



總結(jié)

以上是生活随笔為你收集整理的AMiner推荐论文:SMU: smooth activation function for deep networks using smoothing maximum technique的全部內(nèi)容,希望文章能夠幫你解決所遇到的問題。

如果覺得生活随笔網(wǎng)站內(nèi)容還不錯,歡迎將生活随笔推薦給好友。