日韩性视频-久久久蜜桃-www中文字幕-在线中文字幕av-亚洲欧美一区二区三区四区-撸久久-香蕉视频一区-久久无码精品丰满人妻-国产高潮av-激情福利社-日韩av网址大全-国产精品久久999-日本五十路在线-性欧美在线-久久99精品波多结衣一区-男女午夜免费视频-黑人极品ⅴideos精品欧美棵-人人妻人人澡人人爽精品欧美一区-日韩一区在线看-欧美a级在线免费观看

歡迎訪問 生活随笔!

生活随笔

當前位置: 首頁 > 编程资源 > 编程问答 >内容正文

编程问答

model.parameters(),model.state_dict(),model .load_state_dict()以及torch.load()

發布時間:2024/9/21 编程问答 23 豆豆
生活随笔 收集整理的這篇文章主要介紹了 model.parameters(),model.state_dict(),model .load_state_dict()以及torch.load() 小編覺得挺不錯的,現在分享給大家,幫大家做個參考.

一.model.parameters()與model.state_dict()

model.parameters()與model.state_dict()都是Pytorch中用于查看網絡參數的方法

一般來說,前者多見于優化器的初始化,例如:

后者多見于模型的保存,如:

當我們對網絡調參或者查看網絡的參數是否具有可復現性時,可能會查看網絡的參數

pretrained_dict = torch.load(yolov4conv137weight)model_dict = _model.state_dict() #查看模型的權重和biass系數pretrained_dict = {k1: v for (k, v), k1 in zip(pretrained_dict.items(), model_dict)}model_dict.update(pretrained_dict) #更新model網絡模型的參數的權值和biass,這相當于是一個淺拷貝,對這個更新改變會更改模型的權重和biass

model.state_dict()其實返回的是一個OrderDict,存儲了網絡結構的名字和對應的參數。

例子:

#encoding:utf-8import torch import torch.nn as nn import torch.optim as optim import torchvision import numpy as mp import matplotlib.pyplot as plt import torch.nn.functional as F#define model class TheModelClass(nn.Module):def __init__(self):super(TheModelClass,self).__init__()self.conv1=nn.Conv2d(3,6,5)self.pool=nn.MaxPool2d(2,2)self.conv2=nn.Conv2d(6,16,5)self.fc1=nn.Linear(16*5*5,120)self.fc2=nn.Linear(120,84)self.fc3=nn.Linear(84,10)def forward(self,x):x=self.pool(F.relu(self.conv1(x)))x=self.pool(F.relu(self.conv2(x)))x=x.view(-1,16*5*5)x=F.relu(self.fc1(x))x=F.relu(self.fc2(x))x=self.fc3(x)return xdef main():# Initialize modelmodel = TheModelClass()#Initialize optimizeroptimizer=optim.SGD(model.parameters(),lr=0.001,momentum=0.9)#print model's state_dictprint('Model.state_dict:')for param_tensor in model.state_dict():#打印 key value字典print(param_tensor,'\t',model.state_dict()[param_tensor].size())#print optimizer's state_dictprint('Optimizer,s state_dict:')for var_name in optimizer.state_dict():print(var_name,'\t',optimizer.state_dict()[var_name])if __name__=='__main__':main()

具體的輸出結果如下:可以很清晰的觀測到state_dict中存放的key和value的值

Model.state_dict: conv1.weight torch.Size([6, 3, 5, 5]) conv1.bias torch.Size([6]) conv2.weight torch.Size([16, 6, 5, 5]) conv2.bias torch.Size([16]) fc1.weight torch.Size([120, 400]) fc1.bias torch.Size([120]) fc2.weight torch.Size([84, 120]) fc2.bias torch.Size([84]) fc3.weight torch.Size([10, 84]) fc3.bias torch.Size([10]) Optimizer,s state_dict: state {} param_groups [{'lr': 0.001, 'momentum': 0.9, 'dampening': 0, 'weight_decay': 0, 'nesterov': False, 'params': [367949288, 367949432, 376459056, 381121808, 381121952, 381122024, 381121880, 381122168, 381122096, 381122312]}]

二.torch.load()和load_state_dict()

load_state_dict(state_dict, strict=True)

從 state_dict 中復制參數和緩沖區到 Module 及其子類中?

state_dict:包含參數和緩沖區的 Module 狀態字典

strict:默認 True,是否嚴格匹配 state_dict 的鍵值和 Module.state_dict()的鍵值
?

model = nn.Sequential(self.down1, self.down2, self.down3, self.down4, self.down5, self.neek)pretrained_dict = torch.load(yolov4conv137weight) #加載已經訓練好的模型參數model_dict = model.state_dict() #查看權重和偏重# 1. filter out unnecessary keys pretrained_dict = {k1: v for (k, v), k1 in zip(pretrained_dict.items(), model_dict)}# 2. overwrite entries in the existing state dictmodel_dict.update(pretrained_dict) #更新已有的模型的權重和偏重model.load_state_dict(model_dict) #將更新后的參數重新加載至網絡模型中

官方推薦的方法,只保存和恢復模型中的參數

# save torch.save(model.state_dict(), PATH)# load model = MyModel(*args, **kwargs) model.load_state_dict(torch.load(PATH)) model.eval()

torch.load("path路徑")表示加載已經訓練好的模型

而model.load_state_dict(torch.load(PATH))表示將訓練好的模型參數重新加載至網絡模型中

總結

以上是生活随笔為你收集整理的model.parameters(),model.state_dict(),model .load_state_dict()以及torch.load()的全部內容,希望文章能夠幫你解決所遇到的問題。

如果覺得生活随笔網站內容還不錯,歡迎將生活随笔推薦給好友。