日韩性视频-久久久蜜桃-www中文字幕-在线中文字幕av-亚洲欧美一区二区三区四区-撸久久-香蕉视频一区-久久无码精品丰满人妻-国产高潮av-激情福利社-日韩av网址大全-国产精品久久999-日本五十路在线-性欧美在线-久久99精品波多结衣一区-男女午夜免费视频-黑人极品ⅴideos精品欧美棵-人人妻人人澡人人爽精品欧美一区-日韩一区在线看-欧美a级在线免费观看

歡迎訪問 生活随笔!

生活随笔

當前位置: 首頁 > 人文社科 > 生活经验 >内容正文

生活经验

pytorch中调整学习率的lr_scheduler机制

發布時間:2023/11/28 生活经验 45 豆豆
生活随笔 收集整理的這篇文章主要介紹了 pytorch中调整学习率的lr_scheduler机制 小編覺得挺不錯的,現在分享給大家,幫大家做個參考.

pytorch中調整學習率的lr_scheduler機制

        </h1><div class="clear"></div><div class="postBody">

有的時候需要我們通過一定機制來調整學習率,這個時候可以借助于torch.optim.lr_scheduler類來進行調整;一般地有下面兩種調整策略:(通過兩個例子來展示一下)

兩種機制:LambdaLR機制和StepLR機制;

(1)LambdaLR機制:

optimizer_G = torch.optim.Adam([{'params' : optimizer_G.parameters() , 'initial_lr' : train_opt.lr}] , lr = train_opt.lr , betas = (train_opt.betal , 0.999))

lambda_G = lambda epoch : 0.5 ** (epoch // 30)

schduler_G = torch.optim.lr_scheduler.LambdaLR(optimizer_G.parameters() , lambda_G , last_epoch = 29);

scheduler.step()

lr = schduler.get_lr()[0];? //這里記得加一個[0]的索引!

for param_group in optimizer_G.param_groups():

  param_group['lr'] = lr

解釋:last_epoch是開始的前一個epoch的索引值,這里為29表示從epoch = 30開始(其中scheduler類中的epoch從last_epoch + 1開始,每次step操作epoch加1),學習率調整為lr * (0.5 ** (epoch // 30));另外注意的是:定義optimizer_G類時,需要寫成上述那種形式,不要寫成以前常見的“optimizer_G = torch.optim.Adam(params = optimizer_G.parameters()...)”,要像這里一樣寫成字典形式;否則lr_scheduler類會報“沒有initial_lr的錯誤”

(2)StepLR機制:

schduler_G = torch.optim.lr_scheduler.StepLR(optimizer_G.parameters() , step_size = 30 , gamma = 0.1 , last_epoch = 29)

其他的和上面類似,這里的調整策略如下:

?

分類: pytorch
<div id="blog_post_info">
好文要頂 關注我 收藏該文 outthinker
關注 - 9
粉絲 - 115 +加關注 0 0
<div class="clear"></div>
<div id="post_next_prev"><a href="https://www.cnblogs.com/zf-blog/p/11242712.html" class="p_n_p_prefix">? </a> 上一篇:    <a href="https://www.cnblogs.com/zf-blog/p/11242712.html" title="發布于 2019-07-25 10:37">pix2pix&amp;Cycle GAN&amp;pix2pix HD</a>
<br>
<a href="https://www.cnblogs.com/zf-blog/p/11360557.html" class="p_n_p_prefix">? </a> 下一篇:    <a href="https://www.cnblogs.com/zf-blog/p/11360557.html" title="發布于 2019-08-15 21:06">pytorch 中Dataloader中的collate_fn參數</a>
posted @ 2019-07-29 11:24? outthinker? 閱讀(2121)? 評論(0)? 編輯 收藏

總結

以上是生活随笔為你收集整理的pytorch中调整学习率的lr_scheduler机制的全部內容,希望文章能夠幫你解決所遇到的問題。

如果覺得生活随笔網站內容還不錯,歡迎將生活随笔推薦給好友。