日韩性视频-久久久蜜桃-www中文字幕-在线中文字幕av-亚洲欧美一区二区三区四区-撸久久-香蕉视频一区-久久无码精品丰满人妻-国产高潮av-激情福利社-日韩av网址大全-国产精品久久999-日本五十路在线-性欧美在线-久久99精品波多结衣一区-男女午夜免费视频-黑人极品ⅴideos精品欧美棵-人人妻人人澡人人爽精品欧美一区-日韩一区在线看-欧美a级在线免费观看

歡迎訪問 生活随笔!

生活随笔

當前位置: 首頁 > 编程资源 > 编程问答 >内容正文

编程问答

Pytorch 为什么每一轮batch需要设置optimizer.zero_grad

發(fā)布時間:2024/7/23 编程问答 48 豆豆
生活随笔 收集整理的這篇文章主要介紹了 Pytorch 为什么每一轮batch需要设置optimizer.zero_grad 小編覺得挺不錯的,現(xiàn)在分享給大家,幫大家做個參考.

根據(jù)pytorch中的backward()函數(shù)的計算,當網(wǎng)絡參量進行反饋時,梯度是被積累的而不是被替換掉;但是在每一個batch時毫無疑問并不需要將兩個batch的梯度混合起來累積,因此這里就需要每個batch設置一遍zero_grad 了。

其實這里還可以補充的一點是,如果不是每一個batch就清除掉原有的梯度,而是比如說兩個batch再清除掉梯度,這是一種變相提高batch_size的方法,對于計算機硬件不行,但是batch_size可能需要設高的領域比較適合,比如目標檢測模型的訓練。
?

總結

以上是生活随笔為你收集整理的Pytorch 为什么每一轮batch需要设置optimizer.zero_grad的全部內(nèi)容,希望文章能夠幫你解決所遇到的問題。

如果覺得生活随笔網(wǎng)站內(nèi)容還不錯,歡迎將生活随笔推薦給好友。