神经网络与机器学习 笔记—改善反向传播的性能试探法
改善反向傳播的性能試探法
整理8個能提高BP效率的方法:
?
反向傳播學(xué)習(xí)的隨機(jī)(串行)方式(涉及一個模式接一個模式的更新)要比批量方式
計算快。特別是當(dāng)新聯(lián)數(shù)據(jù)集很大且高度冗余時,更是如此。(批量學(xué)習(xí)再高度冗余的時候Jacobi矩陣會很麻煩)
作為一個基本的規(guī)則,對呈現(xiàn)給反向傳播算法的每一個訓(xùn)練樣本的挑選必須建立在其信息內(nèi)容對解決問題有很大可能的基礎(chǔ)上。達(dá)到這個目標(biāo)的兩種方法是:
使用訓(xùn)練誤差最大的樣本。
使用的樣本要與以前使用的有區(qū)別。
這兩個試探方法起因于對權(quán)空間進(jìn)行更多搜索的愿望。
在模式分類的任務(wù)中使用串行反向傳播學(xué)習(xí),經(jīng)常使用的一個簡單技巧是將樣本的每個回合呈現(xiàn)給多層感知器的順序隨機(jī)化(即弄亂)。理想情況下,隨機(jī)化可以確保一個回合中的相繼的樣本很少屬于同一類。
建議選擇奇函數(shù)的sigmoid激活函數(shù)即
F(-v)?=?-?F(v)
如下的雙曲正切函數(shù)滿足這個條件(logistic函數(shù)不滿足)
F(v)?=?a?tanh?(bv)???????其中a和b的合適值:a=1.7159???b=2/3
?
4.目標(biāo)值。
在sigmoid激活函數(shù)的范圍內(nèi)選擇目標(biāo)值(期望響應(yīng))是很重要的。更具體來說,多層感知器輸出層的神經(jīng)元j的期望響應(yīng)dj必須與sigmoid激活函數(shù)的極限值偏離某個值,具體取決于極限值是正或負(fù)。否則反向傳播算法會使網(wǎng)絡(luò)的自由參數(shù)趨向于無窮大,驅(qū)使隱藏神經(jīng)元達(dá)到飽和從而減慢學(xué)習(xí)過程。
訓(xùn)練集包含的輸入變量應(yīng)該是不相關(guān)的;
區(qū)相關(guān)后的輸入變量應(yīng)調(diào)整其長度使得它們的協(xié)方差近似相等,因此可以保證網(wǎng)絡(luò)中的不同突觸權(quán)值以大約相等的速度進(jìn)行學(xué)習(xí)。
?
?
總結(jié)
以上是生活随笔為你收集整理的神经网络与机器学习 笔记—改善反向传播的性能试探法的全部內(nèi)容,希望文章能夠幫你解決所遇到的問題。
- 上一篇: 设计模式复习-装饰模式
- 下一篇: 神经网络与机器学习 笔记—泛化和交叉验证