日韩性视频-久久久蜜桃-www中文字幕-在线中文字幕av-亚洲欧美一区二区三区四区-撸久久-香蕉视频一区-久久无码精品丰满人妻-国产高潮av-激情福利社-日韩av网址大全-国产精品久久999-日本五十路在线-性欧美在线-久久99精品波多结衣一区-男女午夜免费视频-黑人极品ⅴideos精品欧美棵-人人妻人人澡人人爽精品欧美一区-日韩一区在线看-欧美a级在线免费观看

歡迎訪問 生活随笔!

生活随笔

當前位置: 首頁 > 编程资源 > 编程问答 >内容正文

编程问答

神经网络中的激活函数的比较

發布時間:2025/1/21 编程问答 25 豆豆
生活随笔 收集整理的這篇文章主要介紹了 神经网络中的激活函数的比较 小編覺得挺不錯的,現在分享給大家,幫大家做個參考.

常見激活函數
神經網絡中,常見的激活函數有以下幾種:

1. sigmoid

f(x)=11+e?xf(x) = \frac{1}{1+e^{-x}}f(x)=1+e?x1?
f′(x)=f(x)(1?f(x))f^{'}(x) = f(x)(1-f(x))f(x)=f(x)(1?f(x))

2. tanh

f(x)=ex?e?xex+e?xf(x) =\frac{e^{x}-e^{-x}}{e^{x}+e^{-x}}f(x)=ex+e?xex?e?x?
f′(x)=?f^{'}(x) = ?f(x)=?

  • 二者都需要指數計算
  • sigmoid和tanh都是S型的非線性激活函數,對輸入做非線性映射。
  • 不同的是sigmoid將響應值限制在了(0,1),而tanh則是(-1,1).
  • 在自變量處于極大和極小值區域,導數幾乎為0,在反向傳播過程中,導致梯度消失,無法更新權值。

3. ReLU

f(x)={x,x&gt;00,x&lt;=0f(x)=\left\{\begin{matrix} x,x&gt;0\\ 0,x&lt;=0 \end{matrix}\right.f(x)={x,x>00,x<=0?
相對于S型函數,計算簡單,在x>0區域,不存在梯度消失。
ReLU有個嚴重的問題,存在死區。在死區處,無法更新權值。

5. Leaky ReLU

見下圖。解決ReLU死區問題,引入了一個新參數aia_{i}ai?

6. PReLU

與Leaky ReLU類似,但是參數aia_{i}ai?根據數據來定的
參考

7. RReLU

與Leaky ReLU類似,但是參數aia_{i}ai?在U(I,u)中隨機選擇的

總結

以上是生活随笔為你收集整理的神经网络中的激活函数的比较的全部內容,希望文章能夠幫你解決所遇到的問題。

如果覺得生活随笔網站內容還不錯,歡迎將生活随笔推薦給好友。