3.对神经网络训练中Epoch的理解
生活随笔
收集整理的這篇文章主要介紹了
3.对神经网络训练中Epoch的理解
小編覺得挺不錯的,現在分享給大家,幫大家做個參考.
代表的是迭代的次數,如果過少會欠擬合,反之過多會過擬合
EPOCHS
當一個完整的數據集通過了神經網絡一次并且返回了一次,這個過程稱為一個 epoch。
然而,當一個 epoch 對于計算機而言太龐大的時候,就需要把它分成多個小塊。
為什么要使用多于一個 epoch?
我知道這剛開始聽起來會很奇怪,在神經網絡中傳遞完整的數據集一次是不夠的,而且我們需要將完整的數據集在同樣的神經網絡中傳遞多次。但是請記住,我們使用的是有限的數據集,并且我們使用一個迭代過程即梯度下降,優化學習過程和圖示。因此僅僅更新權重一次或者說使用一個 epoch 是不夠的。
隨著 epoch 數量增加,神經網絡中的權重的更新次數也增加,曲線從欠擬合變得過擬合。
那么,幾個 epoch 才是合適的呢?
不幸的是,這個問題并沒有正確的答案。對于不同的數據集,答案是不一樣的。但是數據的多樣性會影響合適的 epoch 的數量。比如,只有黑色的貓的數據集,以及有各種顏色的貓的數據集。
總結
以上是生活随笔為你收集整理的3.对神经网络训练中Epoch的理解的全部內容,希望文章能夠幫你解決所遇到的問題。
- 上一篇: 使用Storm实现实时大数据分析
- 下一篇: 非常实用电脑无损分区方法如何把电脑桌面分