日韩av黄I国产麻豆传媒I国产91av视频在线观看I日韩一区二区三区在线看I美女国产在线I麻豆视频国产在线观看I成人黄色短片

歡迎訪問 生活随笔!

生活随笔

當(dāng)前位置: 首頁 >

深度神经网络(DNN)损失函数和激活函数的选择

發(fā)布時間:2025/4/5 25 豆豆
生活随笔 收集整理的這篇文章主要介紹了 深度神经网络(DNN)损失函数和激活函数的选择 小編覺得挺不錯的,現(xiàn)在分享給大家,幫大家做個參考.

  在深度神經(jīng)網(wǎng)絡(luò)(DNN)反向傳播算法(BP)中,我們對DNN的前向反向傳播算法的使用做了總結(jié)。里面使用的損失函數(shù)是均方差,而激活函數(shù)是Sigmoid。實際上DNN可以使用的損失函數(shù)和激活函數(shù)不少。這些損失函數(shù)和激活函數(shù)如何選擇呢?下面我們就對DNN損失函數(shù)和激活函數(shù)的選擇做一個總結(jié)。

1. 均方差損失函數(shù)+Sigmoid激活函數(shù)的問題

    在講反向傳播算法時,我們用均方差損失函數(shù)和Sigmoid激活函數(shù)做了實例,首先我們就來看看均方差+Sigmoid的組合有什么問題。

    首先我們回顧下Sigmoid激活函數(shù)的表達(dá)式為:

σ(z)=11+e?zσ(z)=11+e?z

    σ(z)σ(z)的函數(shù)圖像如下:

    從圖上可以看出,對于Sigmoid,當(dāng)zz的取值越來越大后,函數(shù)曲線變得越來越平緩,意味著此時的導(dǎo)數(shù)σ′(z)σ′(z)也越來越小。同樣的,當(dāng)zz的取值越來越小時,也有這個問題。僅僅在zz取值為0附近時,導(dǎo)數(shù)σ′(z)σ′(z)的取值較大。

    在上篇講的均方差+Sigmoid的反向傳播算法中,每一層向前遞推都要乘以

總結(jié)

以上是生活随笔為你收集整理的深度神经网络(DNN)损失函数和激活函数的选择的全部內(nèi)容,希望文章能夠幫你解決所遇到的問題。

如果覺得生活随笔網(wǎng)站內(nèi)容還不錯,歡迎將生活随笔推薦給好友。