日韩性视频-久久久蜜桃-www中文字幕-在线中文字幕av-亚洲欧美一区二区三区四区-撸久久-香蕉视频一区-久久无码精品丰满人妻-国产高潮av-激情福利社-日韩av网址大全-国产精品久久999-日本五十路在线-性欧美在线-久久99精品波多结衣一区-男女午夜免费视频-黑人极品ⅴideos精品欧美棵-人人妻人人澡人人爽精品欧美一区-日韩一区在线看-欧美a级在线免费观看

歡迎訪問 生活随笔!

生活随笔

當前位置: 首頁 > 人文社科 > 生活经验 >内容正文

生活经验

『PyTorch』第十一弹_torch.optim优化器 每层定制参数

發布時間:2023/11/28 生活经验 29 豆豆
生活随笔 收集整理的這篇文章主要介紹了 『PyTorch』第十一弹_torch.optim优化器 每层定制参数 小編覺得挺不錯的,現在分享給大家,幫大家做個參考.

一、簡化前饋網絡LeNet

1 2 3 4 5 6 7 8 9 10 11 12 13 14 15 16 17 18 19 20 21 22 23 24 25 26 27 28 29 30 31 import?torch as t class?LeNet(t.nn.Module): ????def?__init__(self): ????????super(LeNet,?self).__init__() ????????self.features?=?t.nn.Sequential( ????????????t.nn.Conv2d(3,?6,?5), ????????????t.nn.ReLU(), ????????????t.nn.MaxPool2d(2,?2), ????????????t.nn.Conv2d(6,?16,?5), ????????????t.nn.ReLU(), ????????????t.nn.MaxPool2d(2,?2) ????????) ????????# 由于調整shape并不是一個class層, ????????# 所以在涉及這種操作(非nn.Module操作)需要拆分為多個模型 ????????self.classifiter?=?t.nn.Sequential( ????????????t.nn.Linear(16*5*5,?120), ????????????t.nn.ReLU(), ????????????t.nn.Linear(120,?84), ????????????t.nn.ReLU(), ????????????t.nn.Linear(84,?10) ????????) ????def?forward(self, x): ????????x?=?self.features(x) ????????x?=?x.view(-1,?16*5*5) ????????x?=?self.classifiter(x) ????????return?x net?=?LeNet()

?

二、優化器基本使用方法

  1. 建立優化器實例
  2. 循環:
    1. 清空梯度
    2. 向前傳播
    3. 計算Loss
    4. 反向傳播
    5. 更新參數
1 2 3 4 5 6 7 8 9 10 11 from?torch?import?optim # 通常的step優化過程 optimizer?=?optim.SGD(params=net.parameters(), lr=1) optimizer.zero_grad()??# net.zero_grad() input_?=?t.autograd.Variable(t.randn(1,?3,?32,?32)) output?=?net(input_) output.backward(output) optimizer.step()

?

三、網絡模塊參數定制

為不同的子網絡參數不同的學習率,finetune常用,使分類器學習率參數更高,學習速度更快(理論上)。

1.經由構建網絡時劃分好的模組進行學習率設定,

1 2 3 # # 直接對不同的網絡模塊制定不同學習率 optimizer?=?optim.SGD([{'params': net.features.parameters()},?# 默認lr是1e-5 ???????????????????????{'params': net.classifiter.parameters(),?'lr':?1e-2}], lr=1e-5)

?

?2.以網絡層對象為單位進行分組,并設定學習率

1 2 3 4 5 6 7 8 9 10 # # 以層為單位,為不同層指定不同的學習率 # ## 提取指定層對象 special_layers?=?t.nn.ModuleList([net.classifiter[0], net.classifiter[3]]) # ## 獲取指定層參數id special_layers_params?=?list(map(id, special_layers.parameters())) print(special_layers_params) # ## 獲取非指定層的參數id base_params?=?filter(lambda?p:?id(p)?not?in?special_layers_params, net.parameters()) optimizer?=?t.optim.SGD([{'params': base_params}, ?????????????????????????{'params': special_layers.parameters(),?'lr':?0.01}], lr=0.001)

?

四、在訓練中動態的調整學習率

?

1 2 3 4 5 6 7 8 9 '''調整學習率''' # 新建optimizer或者修改optimizer.params_groups對應的學習率 # # 新建optimizer更簡單也更推薦,optimizer十分輕量級,所以開銷很小 # # 但是新的優化器會初始化動量等狀態信息,這對于使用動量的優化器(momentum參數的sgd)可能會造成收斂中的震蕩 # ## optimizer.param_groups:長度2的list,optimizer.param_groups[0]:長度6的字典 print(optimizer.param_groups[0]['lr']) old_lr?=?0.1 optimizer?=?optim.SGD([{'params': net.features.parameters()}, ???????????????????????{'params': net.classifiter.parameters(),?'lr': old_lr*0.1}], lr=1e-5)

?可以看到optimizer.param_groups結構,[{'params','lr', 'momentum', 'dampening', 'weight_decay', 'nesterov'},{……}],集合了優化器的各項參數。

?

總結

以上是生活随笔為你收集整理的『PyTorch』第十一弹_torch.optim优化器 每层定制参数的全部內容,希望文章能夠幫你解決所遇到的問題。

如果覺得生活随笔網站內容還不錯,歡迎將生活随笔推薦給好友。