日韩性视频-久久久蜜桃-www中文字幕-在线中文字幕av-亚洲欧美一区二区三区四区-撸久久-香蕉视频一区-久久无码精品丰满人妻-国产高潮av-激情福利社-日韩av网址大全-国产精品久久999-日本五十路在线-性欧美在线-久久99精品波多结衣一区-男女午夜免费视频-黑人极品ⅴideos精品欧美棵-人人妻人人澡人人爽精品欧美一区-日韩一区在线看-欧美a级在线免费观看

歡迎訪問 生活随笔!

生活随笔

當(dāng)前位置: 首頁 > 编程资源 > 编程问答 >内容正文

编程问答

pytorch的梯度计算以及backward方法

發(fā)布時(shí)間:2025/3/19 编程问答 44 豆豆
生活随笔 收集整理的這篇文章主要介紹了 pytorch的梯度计算以及backward方法 小編覺得挺不錯(cuò)的,現(xiàn)在分享給大家,幫大家做個(gè)參考.

基礎(chǔ)知識(shí)

tensors:

tensor在pytorch里面是一個(gè)n維數(shù)組。我們可以通過指定參數(shù)reuqires_grad=True來建立一個(gè)反向傳播圖,從而能夠計(jì)算梯度。在pytorch中一般叫做dynamic computation graph(DCG)——即動(dòng)態(tài)計(jì)算圖。

import torch import numpy as np# 方式一 x = torch.randn(2,2, requires_grad=True)# 方式二 x = torch.autograd.Variable(torch.Tensor([2,3]), requires_grad=True)#方式三 x = torch.tensor([2,3], requires_grad=True, dtype=torch.float64)# 方式四 x = np.array([1,2,3] ,dtype=np.float64) x = torch.from_numpy(x) x.requires_grad = True # 或者 x.requires_grad_(True)

note1:在pytorch中,只有浮點(diǎn)類型的數(shù)才有梯度,故在方法四中指定np數(shù)組的類型為float類型。為什么torch.Tensor中不需要呢,可以通過以下代碼驗(yàn)證

import torch import numpy as npa = torch.Tensor([2,3]) print(a.dtype) # torch.floaat32b = torch.tensor([2,3]) print(b.dtype) # torch.int64c = np.array(2,3)print(c.dtype) # int64

note2pytorch中tensor與Tensor的區(qū)別是什么?這兩個(gè)看起來如此相似。
首先,torch.Tensor是一個(gè)類,所有的tensor都是Tensor的一個(gè)實(shí)例;而torch.tensor是一個(gè)函數(shù)。這也說明了為什么使用torch.Tensor()沒有問題而torch.tensor()卻有問題。
其次,torch.tensor主要是將一個(gè)data封裝成tensor,并且可以指定requires_grad。
torch.tensor(data,dtype=None,device=None,requires_grad=False) - > Tensor
最后,我們更多地使用torch.tensor,我們可以通過使用torch.tensor(())來達(dá)到與torch.Tensor()同樣的效果。
具體可參考torch.tensor與torch.Tensor的區(qū)別

Dynamic Computational graph

我們來看一個(gè)計(jì)算圖

我們 來看一個(gè)計(jì)算圖 解釋一下各個(gè)屬性的含義,

  • data: 變量中存儲(chǔ)的值,如x中存儲(chǔ)著1,y中存儲(chǔ)著2,z中存儲(chǔ)著3
  • requires_grad:該變量有兩個(gè)值,True 或者 False,如果為True,則加入到反向傳播圖中參與計(jì)算。
  • grad:該屬性存儲(chǔ)著相關(guān)的梯度值。當(dāng)requires_grad為False時(shí),該屬性為None。即使requires_grad為True,也必須在調(diào)用其他節(jié)點(diǎn)的backward()之后,該變量的grad才會(huì)保存相關(guān)的梯度值。否則為None
  • grad_fn:表示用于計(jì)算梯度的函數(shù)。
  • is_leaf:為True或者False,表示該節(jié)點(diǎn)是否為葉子節(jié)點(diǎn)。

當(dāng)調(diào)用backward函數(shù)時(shí),只有requires_grad為true以及is_leaf為true的節(jié)點(diǎn)才會(huì)被計(jì)算梯度,即grad屬性才會(huì)被賦予值。

梯度計(jì)算

examples

  • 運(yùn)算結(jié)果變量的requires_grad取決于輸入變量。例如:當(dāng)變量z的requires_grad屬性為True時(shí),為了求得z的梯度,那么變量b的requires_grad就必須為true了,而變量x,y,a的requires_grad屬性都為False。
    將事先創(chuàng)建的變量,如x、y、z稱為創(chuàng)建變量;像a、b這樣由其他變量運(yùn)算得到的稱為結(jié)果變量。

    from torch.autograd import Variablex = Variable(torch.randn(2,2)) y = Variable(torch.randn(2,2)) z = Variable(torch.randn(2,2), requires_grad=True)a = x+y b = a+zprint(x.requires_grad, y.requires_grad, z.requires_grad) # False, False, True print(a.requires_grad, b.requires_grad) # False, Trueprint(x.requires_grad) # True print(a.requires_grad) # True
  • 調(diào)用backward()計(jì)算梯度

    import torch as t from torch.autograd import Variable as va = v(t.FloatTensor([2, 3]), requires_grad=True) b = a + 3 c = b * b * 3 out = c.mean() out.backward(retain_graph=True) # 這里可以不帶參數(shù),默認(rèn)值為‘1’,由于下面我們還要求導(dǎo),故加上retain_graph=True選項(xiàng)print(a.grad) # tensor([15., 18.])
  • backward中的gradient參數(shù)使用

    a. 最后的結(jié)果變量為標(biāo)量(scalar)

    如第二個(gè)例子,通過調(diào)用out.backward()實(shí)現(xiàn)對(duì)a的求導(dǎo),這里默認(rèn)調(diào)用了out.backward(gradient=None)或者指定為out.backward(gradient=torch.Tensor([1.0])

    b. 最后的結(jié)果變量為向量(vector)

    import torch from torch.autograd import Variable as Vm = V(torch.FloatTensor([2, 3]), requires_grad=True) # 注意這里有兩層括號(hào),非標(biāo)量 n = V(torch.zeros(2)) n[0] = m[0] ** 2 n[1] = m[1] ** 3 n.backward(gradient=torch.Tensor([1,1]), retain_graph=True) print(m.grad)

    結(jié)果為:

    tensor([ 4., 27.])

    如果使用n.backward()的話,那么就會(huì)報(bào)如下的錯(cuò):RuntimeError: grad can be implicitly created only for scalar outputs
    注意:這里的gradient的維度必須與n的維度相同。其中的原理如下:

    在執(zhí)行z.backward(gradient)的時(shí)候,如果z不是一個(gè)標(biāo)量,那么先構(gòu)造一個(gè)標(biāo)量的值:L = torch.sum(z*gradient),再計(jì)算關(guān)于L對(duì)各個(gè)leaf Variable的梯度。


  • δLδm=δLδz?δzδm\frac{\delta L}{\delta m} = \frac{\delta L}{\delta z}* \frac{\delta z}{\delta m}δmδL?=δzδL??δmδz?
    由于δLδz=1\frac{\delta L}{\delta z} = 1δzδL?=1,故m.grad的梯度不變。

    參考資料:

    講解了z.backward(gradient)的原理
    提供了一些求梯度的案例
    講解了一些基礎(chǔ)知識(shí)與概念

    總結(jié)

    以上是生活随笔為你收集整理的pytorch的梯度计算以及backward方法的全部內(nèi)容,希望文章能夠幫你解決所遇到的問題。

    如果覺得生活随笔網(wǎng)站內(nèi)容還不錯(cuò),歡迎將生活随笔推薦給好友。

    主站蜘蛛池模板: 久久久a级片 | 亚欧美在线 | 日本中文字幕影院 | 精品一区电影国产 | 日本三级黄在线观看 | 成人h网站 | 欧美男女性生活视频 | 久久久久夜夜夜精品国产 | 欧美乱大交 | a免费在线观看 | 四虎在线免费观看 | 怡红院成人影院 | 中文字幕高清在线观看 | 国产国产精品 | 日本高清不卡码 | 免费看黄色一级大片 | 欧美夜夜操 | 美国黄色片网站 | 国产探花在线精品一区二区 | 精品一区二区三区四 | 青青视频免费 | 国产日韩欧美在线 | 超碰牛牛| 毛茸茸日本熟妇高潮 | av在线看片 | 日本欧美视频 | 成人性生交大全免 | 欧美一区二区三区免 | 干爹你真棒插曲免费 | 国产精品美女自拍视频 | 亚洲精品少妇一区二区 | 91ts人妖另类精品系列 | 中文字幕乱码无码人妻系列蜜桃 | 日韩女同互慰一区二区 | 爱情岛亚洲首页论坛小巨 | 牛牛影视免费观看 | 性欧美成人播放77777 | 夜夜操天天射 | 欧美一区二区视频在线 | 中文字幕一区二区三区在线不卡 | 久久久噜噜噜www成人 | 日批视频在线免费看 | 人人干人人做 | 欧美一区二区视频在线 | 色狠狠综合网 | 97干干干 | 亚洲精品www久久久 一级aaa毛片 | 国产成人亚洲综合a∨婷婷 台湾a级片 | 好看的中文字幕电影 | 日韩黄色免费观看 | 91丨porny丨对白| 亚洲精品国偷拍自产在线观看蜜桃 | 国产一级免费 | 91精品国产免费 | 视频一区二区三区在线 | avtt亚洲 | 久操这里只有精品 | www.久久| 在线欧美色 | 免费福利视频网站 | 黑人糟蹋人妻hd中文字幕 | 久久亚洲AV无码精品 | 国产制服91一区二区三区制服 | 欧美性猛交99久久久久99按摩 | 精品国产一区二区三区在线 | av午夜天堂| 免费福利视频网站 | 成人欧美一区二区三区小说 | 97伦伦午夜电影理伦片 | www.天天操| 欧美在线观看成人 | 在线观看日本一区二区 | 国产91综合 | 日韩影院一区 | 青青草久久 | 国产视频综合在线 | 91中文| av播播| 69中国xxxxxxxxx96| 美女的胸给男人玩视频 | 六月婷婷激情网 | 中国av免费看 | 免费看欧美成人a片无码 | www.夜色| 久久亚洲免费视频 | 亚洲色图另类小说 | www.日日夜夜 | 欧美成性色 | 国内久久精品 | 日韩欧美国产中文字幕 | 亚洲第六页 | 亚洲字幕在线观看 | 国产ts三人妖大战直男 | 最新天堂中文在线 | 亚洲精品9 | 日韩1024| 欧美一区二区三区免费在线观看 | 国产精品亚洲精品 | 日日摸天天爽天天爽视频 |