日韩性视频-久久久蜜桃-www中文字幕-在线中文字幕av-亚洲欧美一区二区三区四区-撸久久-香蕉视频一区-久久无码精品丰满人妻-国产高潮av-激情福利社-日韩av网址大全-国产精品久久999-日本五十路在线-性欧美在线-久久99精品波多结衣一区-男女午夜免费视频-黑人极品ⅴideos精品欧美棵-人人妻人人澡人人爽精品欧美一区-日韩一区在线看-欧美a级在线免费观看

歡迎訪問 生活随笔!

生活随笔

當(dāng)前位置: 首頁 > 人文社科 > 生活经验 >内容正文

生活经验

PyTorch之前向传播函数自动调用forward

發(fā)布時(shí)間:2023/11/28 生活经验 35 豆豆
生活随笔 收集整理的這篇文章主要介紹了 PyTorch之前向传播函数自动调用forward 小編覺得挺不錯(cuò)的,現(xiàn)在分享給大家,幫大家做個(gè)參考.

參考:1.?pytorch學(xué)習(xí)筆記(九):PyTorch結(jié)構(gòu)介紹

2.pytorch學(xué)習(xí)筆記(七):pytorch hook 和 關(guān)于pytorch backward過程的理解

3.Pytorch入門學(xué)習(xí)(三):Neural Networks

4.forward

神經(jīng)網(wǎng)絡(luò)的典型處理如下所示:

1. 定義可學(xué)習(xí)參數(shù)的網(wǎng)絡(luò)結(jié)構(gòu)(堆疊各層和層的設(shè)計(jì));
2. 數(shù)據(jù)集輸入;
3. 對(duì)輸入進(jìn)行處理(由定義的網(wǎng)絡(luò)層進(jìn)行處理),主要體現(xiàn)在網(wǎng)絡(luò)的前向傳播;
4. 計(jì)算loss ,由Loss層計(jì)算;
5. 反向傳播求梯度;
6. 根據(jù)梯度改變參數(shù)值,最簡單的實(shí)現(xiàn)方式(SGD)為:
???weight = weight - learning_rate * gradient
下面是利用PyTorch定義深度網(wǎng)絡(luò)層(Op)示例:
?

  1. class FeatureL2Norm(torch.nn.Module):
  2. def __init__(self):
  3. super(FeatureL2Norm, self).__init__()
  4. def forward(self, feature):
  5. epsilon = 1e-6
  6. # print(feature.size())
  7. # print(torch.pow(torch.sum(torch.pow(feature,2),1)+epsilon,0.5).size())
  8. norm = torch.pow(torch.sum(torch.pow(feature,2),1)+epsilon,0.5).unsqueeze(1).expand_as(feature)
  9. return torch.div(feature,norm)
  1. class FeatureRegression(nn.Module):
  2. def __init__(self, output_dim=6, use_cuda=True):
  3. super(FeatureRegression, self).__init__()
  4. self.conv = nn.Sequential(
  5. nn.Conv2d(225, 128, kernel_size=7, padding=0),
  6. nn.BatchNorm2d(128),
  7. nn.ReLU(inplace=True),
  8. nn.Conv2d(128, 64, kernel_size=5, padding=0),
  9. nn.BatchNorm2d(64),
  10. nn.ReLU(inplace=True),
  11. )
  12. self.linear = nn.Linear(64 * 5 * 5, output_dim)
  13. if use_cuda:
  14. self.conv.cuda()
  15. self.linear.cuda()
  16. def forward(self, x):
  17. x = self.conv(x)
  18. x = x.view(x.size(0), -1)
  19. x = self.linear(x)
  20. return x

由上例代碼可以看到,不論是在定義網(wǎng)絡(luò)結(jié)構(gòu)還是定義網(wǎng)絡(luò)層的操作(Op),均需要定義forward函數(shù),下面看一下PyTorch官網(wǎng)對(duì)PyTorch的forward方法的描述:

那么調(diào)用forward方法的具體流程是什么樣的呢?具體流程是這樣的:

以一個(gè)Module為例:
1. 調(diào)用module的call方法
2. module的call里面調(diào)用module的forward方法
3. forward里面如果碰到Module的子類,回到第1步,如果碰到的是Function的子類,繼續(xù)往下
4. 調(diào)用Function的call方法
5. Function的call方法調(diào)用了Function的forward方法。
6. Function的forward返回值
7. module的forward返回值
8. 在module的call進(jìn)行forward_hook操作,然后返回值
上述中“調(diào)用module的call方法”是指nn.Module 的__call__方法。定義__call__方法的類可以當(dāng)作函數(shù)調(diào)用,具體參考Python的面向?qū)ο缶幊?。也就是說,當(dāng)把定義的網(wǎng)絡(luò)模型model當(dāng)作函數(shù)調(diào)用的時(shí)候就自動(dòng)調(diào)用定義的網(wǎng)絡(luò)模型的forward方法。nn.Module 的__call__方法部分源碼如下所示:
?

  1. def __call__(self, *input, **kwargs):
  2. result = self.forward(*input, **kwargs)
  3. for hook in self._forward_hooks.values():
  4. #將注冊(cè)的hook拿出來用
  5. hook_result = hook(self, input, result)
  6. ...
  7. return result

可以看到,當(dāng)執(zhí)行model(x)的時(shí)候,底層自動(dòng)調(diào)用forward方法計(jì)算結(jié)果。具體示例如下:

  1. class Function:
  2. def __init__(self):
  3. ...
  4. def forward(self, inputs):
  5. ...
  6. return outputs
  7. def backward(self, grad_outs):
  8. ...
  9. return grad_ins
  10. def _backward(self, grad_outs):
  11. hooked_grad_outs = grad_outs
  12. for hook in hook_in_outputs:
  13. hooked_grad_outs = hook(hooked_grad_outs)
  14. grad_ins = self.backward(hooked_grad_outs)
  15. hooked_grad_ins = grad_ins
  16. for hook in hooks_in_module:
  17. hooked_grad_ins = hook(hooked_grad_ins)
  18. return hooked_grad_ins

model = LeNet()
y = model(x)
如上則調(diào)用網(wǎng)絡(luò)模型定義的forward方法。

總結(jié)

以上是生活随笔為你收集整理的PyTorch之前向传播函数自动调用forward的全部內(nèi)容,希望文章能夠幫你解決所遇到的問題。

如果覺得生活随笔網(wǎng)站內(nèi)容還不錯(cuò),歡迎將生活随笔推薦給好友。