當(dāng)前位置:
首頁 >
深度神经网络(DNN)损失函数和激活函数的选择
發(fā)布時間:2025/4/5
25
豆豆
生活随笔
收集整理的這篇文章主要介紹了
深度神经网络(DNN)损失函数和激活函数的选择
小編覺得挺不錯的,現(xiàn)在分享給大家,幫大家做個參考.
在深度神經(jīng)網(wǎng)絡(luò)(DNN)反向傳播算法(BP)中,我們對DNN的前向反向傳播算法的使用做了總結(jié)。里面使用的損失函數(shù)是均方差,而激活函數(shù)是Sigmoid。實際上DNN可以使用的損失函數(shù)和激活函數(shù)不少。這些損失函數(shù)和激活函數(shù)如何選擇呢?下面我們就對DNN損失函數(shù)和激活函數(shù)的選擇做一個總結(jié)。
1. 均方差損失函數(shù)+Sigmoid激活函數(shù)的問題
在講反向傳播算法時,我們用均方差損失函數(shù)和Sigmoid激活函數(shù)做了實例,首先我們就來看看均方差+Sigmoid的組合有什么問題。
首先我們回顧下Sigmoid激活函數(shù)的表達(dá)式為:
σ(z)=11+e?zσ(z)=11+e?z
σ(z)σ(z)的函數(shù)圖像如下:
從圖上可以看出,對于Sigmoid,當(dāng)zz的取值越來越大后,函數(shù)曲線變得越來越平緩,意味著此時的導(dǎo)數(shù)σ′(z)σ′(z)也越來越小。同樣的,當(dāng)zz的取值越來越小時,也有這個問題。僅僅在zz取值為0附近時,導(dǎo)數(shù)σ′(z)σ′(z)的取值較大。
在上篇講的均方差+Sigmoid的反向傳播算法中,每一層向前遞推都要乘以
總結(jié)
以上是生活随笔為你收集整理的深度神经网络(DNN)损失函数和激活函数的选择的全部內(nèi)容,希望文章能夠幫你解決所遇到的問題。
- 上一篇: 深度神经网络(DNN)反向传播算法(BP
- 下一篇: 深度神经网络(DNN)的正则化