日韩性视频-久久久蜜桃-www中文字幕-在线中文字幕av-亚洲欧美一区二区三区四区-撸久久-香蕉视频一区-久久无码精品丰满人妻-国产高潮av-激情福利社-日韩av网址大全-国产精品久久999-日本五十路在线-性欧美在线-久久99精品波多结衣一区-男女午夜免费视频-黑人极品ⅴideos精品欧美棵-人人妻人人澡人人爽精品欧美一区-日韩一区在线看-欧美a级在线免费观看

歡迎訪問 生活随笔!

生活随笔

當(dāng)前位置: 首頁 > 人文社科 > 生活经验 >内容正文

生活经验

PyTorch 安装和基本运算— Tensor 的数据类型(浮点型、整型、随机浮点型等)、基本运算(绝对值、求和、裁剪、求商、求积、求幂等)、Tensor 与 Numpy 转换

發(fā)布時(shí)間:2023/11/27 生活经验 41 豆豆

PyTorch 的安裝可以到官網(wǎng) https://pytorch.org/,選擇適合自己機(jī)器以及安裝方式,執(zhí)行對應(yīng)的命令即可。
除了安裝 PyTorch 之外,建議也安裝 torchvision 包。torchvision 包是服務(wù)于 PyTorch 深度學(xué)習(xí)框架的,用來生成圖片、視頻數(shù)據(jù)集和一些流行的模型類和預(yù)訓(xùn)練模型。

簡單來說,torchvisiontorchvision.datasetstorchvision.modelstorchvision.transformstorchvision.utils 四個(gè)模塊組成。

PyTorch 中的張量(Tensor)類似 NumPy 中的 ndarrays,之所以稱之為 Tensor 的另一個(gè)原因是它可以運(yùn)行在 GPU 中,以加速運(yùn)算。

PyTorch 中的 Tensor 也有自己的數(shù)據(jù)類型定義方式,常用的如下。

1. Tensor 基本數(shù)據(jù)類型

1.1 torch.FloatTensor

用于生成數(shù)據(jù)類型為浮點(diǎn)型的 Tensor,傳遞給 torch.FloatTensor 的參數(shù)可以是一個(gè)列表,也可以是一個(gè)維度值。

import torcha = torch.FloatTensor(2, 3)
b = torch.FloatTensor([1, 2, 3, 4])

輸出結(jié)果:

tensor([[2.3489e-37, 4.5835e-41, 2.3489e-37],[4.5835e-41, 4.4842e-44, 0.0000e+00]])tensor([1., 2., 3., 4.])

可以看到,打印輸出的兩組變量數(shù)據(jù)類型都顯示為浮點(diǎn)型,不同的是,前面的一組是按照我們指定的維度隨機(jī)生成的浮點(diǎn)型 Tensor 而另外一組是按我們給定的列表生成的浮點(diǎn)型 Tensor

1.2 torch.IntTensor

用于生成數(shù)據(jù)類型為整型的 Tensor。傳遞給 torch.IntTensor 的參數(shù)可以是一個(gè)列表,也可以是一個(gè)維度值。

import torcha = torch.IntTensor(2, 3)
b = torch.IntTensor([1, 2, 3, 4])

輸出結(jié)果:

tensor([[1491430264,      32561, 1491430264],[     32561,  808464432,  808463205]], dtype=torch.int32)
tensor([1, 2, 3, 4], dtype=torch.int32)

可以看出輸出的數(shù)據(jù)類型都為整形(torch.int32

1.3 torch.rand

用于生成數(shù)據(jù)類型為浮點(diǎn)型且維度指定的隨機(jī) Tensor,和在 NumPy 中使用 numpy.rand 生成隨機(jī)數(shù)的方法類似,隨機(jī)生成的浮點(diǎn)數(shù)據(jù)在 0~1 區(qū)間均勻分布。

import torcha = torch.rand(2, 3)

輸出結(jié)果:

tensor([[0.6882, 0.4118, 0.2646],[0.0583, 0.2187, 0.8093]])

1.4 torch.randn

用于生成數(shù)據(jù)類型為浮點(diǎn)型且維度指定的隨機(jī) Tensor,和在 NumPy 中使用 numpy.randn 生成隨機(jī)數(shù)的方法類似,隨機(jī)生成的浮點(diǎn)數(shù)的取值滿足均值為 0、方差為 1 的正態(tài)分布。

import torcha = torch.randn(2, 3)

輸出結(jié)果:

tensor([[ 0.2214, -0.0139, -0.0720],[ 0.2548, -1.3364,  0.3924]])

1.5 torch.arange

用于生成數(shù)據(jù)類型為浮點(diǎn)型且自定義起始范圍和結(jié)束范圍的 Tensor,所以傳遞給 torch.arange 的參數(shù)有三個(gè),分別是范圍的起始值、范圍的結(jié)束值和步長,其中,步長用于指定從起始值到結(jié)束值的每步的數(shù)據(jù)間隔。

import torcha = torch.arange(1, 10, 2)

輸出結(jié)果:

tensor([1, 3, 5, 7, 9])

1.6 torch.zeros

用于生成數(shù)據(jù)類型為浮點(diǎn)型且維度指定的 Tensor,不過這個(gè)浮點(diǎn)型的 Tensor中的元素值全部為 0

import torcha = torch.zeros(2, 3, dtype=torch.int8)
print a

輸出結(jié)果:

tensor([[0, 0, 0],[0, 0, 0]], dtype=torch.int8)

2. Tensor 基本運(yùn)算

2.1 torch.abs

將參數(shù)傳遞到 torch.abs 后返回輸入?yún)?shù)的絕對值作為輸出,輸入?yún)?shù)必須是一個(gè) Tensor 數(shù)據(jù)類型的變量。

import torch
a = torch.randn(2, 3)
print a
b = torch.abs(a)
print b

輸出結(jié)果:

tensor([[ 0.4873,  0.8172,  0.2003],[ 0.6815,  1.5656, -0.8303]])
tensor([[0.4873, 0.8172, 0.2003],[0.6815, 1.5656, 0.8303]])

2.2 torch.add

將參數(shù)傳遞到 torch.add 后返回輸入?yún)?shù)的求和結(jié)果作為輸出,輸入?yún)?shù)既可以全部是 Tensor 數(shù)據(jù)類型的變量,也可以一個(gè)是 Tensor 數(shù)據(jù)類型的變量,另一個(gè)是標(biāo)量。

a = torch.ones([2, 3])
print a
b = torch.add(a, 10)
print b
c = torch.randn([2, 3])
print c
d = torch.add(a, c)
print d

輸出結(jié)果:

tensor([[1., 1., 1.],[1., 1., 1.]])
tensor([[11., 11., 11.],[11., 11., 11.]])
tensor([[ 0.4276,  0.4618, -0.9449],[-1.4758, -1.3118, -0.2859]])
tensor([[ 1.4276,  1.4618,  0.0551],[-0.4758, -0.3118,  0.7141]])

2.3 torch.clamp

對輸入?yún)?shù)按照自定義的范圍進(jìn)行裁剪,最后將參數(shù)裁剪的結(jié)果作為輸出。所以輸入?yún)?shù)一共有三個(gè),分別是需要進(jìn)行裁剪的 Tensor 數(shù)據(jù)類型的變量、裁剪的上邊界和裁剪的下邊界。

具體的裁剪過程是:使用變量中的每個(gè)元素分別和裁剪的上邊界及裁剪的下邊界的值進(jìn)行比較,如果元素的值小于裁剪的下邊界的值,該元素就被重寫成裁剪的下邊界的值;同理,如果元素的值大于裁剪的上邊界的值,該元素就被重寫成裁剪的上邊界的值。

a = torch.randn(2,3)
print a
b = torch.clamp(a, -0.1, 0.1)
print b

輸出結(jié)果:

tensor([[-1.0129, -1.3094,  0.4644],[ 1.0542, -0.5259, -0.3575]])
tensor([[-0.1000, -0.1000,  0.1000],[ 0.1000, -0.1000, -0.1000]])

2.4 torch.div

將參數(shù)傳遞到 torch.div 后返回輸入?yún)?shù)的求商結(jié)果作為輸出,同樣,參與運(yùn)算的參數(shù)可以全部是 Tensor 數(shù)據(jù)類型的變量,也可以是 Tensor 數(shù)據(jù)類型的變量和標(biāo)量的組合。

a = torch.IntTensor([2,4,6,8,10])
print a
b = torch.div(a, 2)
print b
c = torch.IntTensor([2,4,6,8,10])
d = torch.div(a, c)
print d

輸出結(jié)果:

tensor([ 2,  4,  6,  8, 10], dtype=torch.int32)
tensor([1, 2, 3, 4, 5], dtype=torch.int32)
tensor([1, 1, 1, 1, 1], dtype=torch.int32)

2.5 torch.mul

將參數(shù)傳遞到 torch.mul 后返回輸入?yún)?shù)求積的結(jié)果作為輸出,參與運(yùn)算的參數(shù)可以全部是 Tensor 數(shù)據(jù)類型的變量,也可以是 Tensor 數(shù)據(jù)類型的變量和標(biāo)量的組合。

a = torch.IntTensor([2,4,6,8,10])
print a
b = torch.mul(a, 2)
print b
c = torch.IntTensor([2,4,6,8,10])
d = torch.mul(a, c)
print d

輸出結(jié)果:

tensor([ 2,  4,  6,  8, 10], dtype=torch.int32)
tensor([ 4,  8, 12, 16, 20], dtype=torch.int32)
tensor([  4,  16,  36,  64, 100], dtype=torch.int32)

2.6 torch.pow

將參數(shù)傳遞到 torch.pow 后返回輸入?yún)?shù)的求冪結(jié)果作為輸出,參與運(yùn)算的參數(shù)可以全部是 Tensor 數(shù)據(jù)類型的變量,也可以是 Tensor 數(shù)據(jù)類型的變量和標(biāo)量的組合。

a = torch.IntTensor([2,4,6,8,10])
print a
b = torch.pow(a, 2)
print b
c = torch.IntTensor([3,3,3,3,3])
d = torch.pow(a, c)
print d

輸出結(jié)果:

tensor([ 2,  4,  6,  8, 10], dtype=torch.int32)
tensor([  4,  16,  36,  64, 100], dtype=torch.int32)
tensor([   8,   64,  216,  512, 1000], dtype=torch.int32)

2.7 torch.mm

將參數(shù)傳遞到 torch.mm 后返回輸入?yún)?shù)的求積結(jié)果作為輸出,不過這個(gè)求積的方式和之前的 torch.mul 運(yùn)算方式不太一樣, torch.mm 運(yùn)用矩陣之間的乘法規(guī)則進(jìn)行計(jì)算,所以被傳入的參數(shù)會(huì)被當(dāng)作矩陣進(jìn)行處理,參數(shù)的維度自然也要滿足矩陣乘法的前提條件,即前一個(gè)矩陣的行數(shù)必須和后一個(gè)矩陣的列數(shù)相等,否則不能進(jìn)行計(jì)算。

a = torch.IntTensor([[1,2,3], [4,5,6]])
print a
b = torch.IntTensor([[1,2], [4,5], [7, 8]])
print b
c = torch.mm(a, b)
print c

輸出結(jié)果:

tensor([[1, 2, 3],[4, 5, 6]], dtype=torch.int32)
tensor([[1, 2],[4, 5],[7, 8]], dtype=torch.int32)
tensor([[30, 36],[66, 81]], dtype=torch.int32)

2.8 torch.mv

將參數(shù)傳遞到 torch.mv 后返回輸入?yún)?shù)的求積結(jié)果作為輸出,torch.mv 運(yùn)用矩陣與向量之間的乘法規(guī)則進(jìn)行計(jì)算,被傳入的參數(shù)中的第 1 個(gè)參數(shù)代表矩陣,第 2 個(gè)參數(shù)代表向量,順序不能顛倒。

a = torch.IntTensor([[1,0,0], [0,0,1]])
print a
b = torch.IntTensor([3,3,3])
print b
c = torch.mv(a, b)
print c

輸出結(jié)果:

tensor([[1, 0, 0],[0, 0, 1]], dtype=torch.int32)
tensor([3, 3, 3], dtype=torch.int32)
tensor([3, 3], dtype=torch.int32)

3. Tensor 與 NumPy

Tensor 可以與 NumPy 相互轉(zhuǎn)化。

  • Tensor 轉(zhuǎn)化為 NumPy
In[2]: import torch
In[3]: a = torch.ones(5)
In[4]: a
Out[4]: tensor([1., 1., 1., 1., 1.])
In[5]: b = a.numpy()
In[6]: b
Out[6]: array([1., 1., 1., 1., 1.], dtype=float32)
  • NumPy 轉(zhuǎn)化為 Tensor
In[7]: import numpy as np
In[8]: a = np.ones(5)
In[9]: a
Out[9]: array([1., 1., 1., 1., 1.])
In[10]: b = torch.from_numpy(a)
In[11]: b
Out[11]: tensor([1., 1., 1., 1., 1.], dtype=torch.float64)

值得注意的是,Torch 中的 Tensor 和 NumPy 中的 Array 共享內(nèi)存位置,一個(gè)改變,另一個(gè)也同樣改變。注意使用的是 b.add_()

In[15]: b.add_(1)
Out[15]: tensor([2., 2., 2., 2., 2.], dtype=torch.float64)
In[16]: a
Out[16]: array([2., 2., 2., 2., 2.])
In[17]: b
Out[17]: tensor([2., 2., 2., 2., 2.], dtype=torch.float64)

下面看使用 b.add() 發(fā)現(xiàn) b 并沒有改變。

In[18]: b.add(2)
Out[18]: tensor([4., 4., 4., 4., 4.], dtype=torch.float64)
In[19]: a
Out[19]: array([2., 2., 2., 2., 2.])
In[20]: b
Out[20]: tensor([2., 2., 2., 2., 2.], dtype=torch.float64)

b.add_()b.add() 的區(qū)別
任何操作符都固定地在前面加上 _ 來表示替換。例如:y.copy_(x)y.t_(),都將改變 y。

4. Tensor 用 GPU 加速

Tensor 可以被移動(dòng)到任何設(shè)備中,例如 GPU 以加速運(yùn)算,使用 .to 方法即可。

x = torch.randn(1)
if torch.cuda.is_available():device = torch.device("cuda")            y = torch.ones_like(x, device=device)    # directly create a tensor on GPUx = x.to(device)                         z = x + yprint(z)print(z.to("cpu", torch.double))  

輸出:

tensor([ 2.0718], device='cuda:0')
tensor([ 2.0718], dtype=torch.float64)

總結(jié)

以上是生活随笔為你收集整理的PyTorch 安装和基本运算— Tensor 的数据类型(浮点型、整型、随机浮点型等)、基本运算(绝对值、求和、裁剪、求商、求积、求幂等)、Tensor 与 Numpy 转换的全部內(nèi)容,希望文章能夠幫你解決所遇到的問題。

如果覺得生活随笔網(wǎng)站內(nèi)容還不錯(cuò),歡迎將生活随笔推薦給好友。