PyTorch教程(一):张量数据类型
生活随笔
收集整理的這篇文章主要介紹了
PyTorch教程(一):张量数据类型
小編覺得挺不錯的,現在分享給大家,幫大家做個參考.
| int | IntTensor of size() |
| float | FloatTensor of size() |
| Int array | IntTensor of size[d1,d2,…] |
| Float array | FloatTensor of size [d1,d2,…] |
| string | – |
需要注意的是,python中的string,在PyTorch中沒有對應的數據類型,一般使用One-hot可以進行表示,也就是[0,1,0,0,0]的方式表示一個字符串,或者使用Embedding的方式,常用的有Word2vec和glove
1. 類型推斷
import torcha = torch.randn(2,3) # 使用隨機正態分布方法,均值0,方差1,N(0,1),新建了2維向量,兩行三列, a.type() # 'torch.FloatTensor' type(a) # <class 'torch.Tensor'> isinstance(a, torch.FloatTensor) # True需要注意的是同一個tensor在CPU和GPU中是不一樣的。
isinstance(a, torch.cuda.FloatTensor) # False a = a.cuda() isinstance(a, torch.cuda.FloatTensor) # Truea.cuda()會返回一個gpu上的引用。
標量
b = torch.tensor(1.3) b.shape # torch.Size([]) b.dim() # 0 b.size() # torch.Size([])torch.tensor(1.)就創建了值為1的標量。torch.tensor(1.3)創建了值為1.3000的標量。
注意,1.3是0維,但是[1.3]是1維,長度為1的Tensor
我們通常使用的loss就是維度為0的標量。
向量
在PyTorch中統一稱向量為張量。
c = torch.tensor([1.1]) # 創建了1維的張量,值為1.100 c = torch.tensor([1.1, 2.2]) # 創建了2維的張量,值為1.1000, 2.2000torch.FloatTensor(1) # 隨機創建一個1維的Float張量,值隨機 tensor([0.]) torch.FloatTensor(2) # 隨機創建一個2維的Float張量,值隨機 tensor([1.0842e-19, 1.9859e+00])# 可以通過引入numpy來創建張量 data = numpy.ones(2) # 長度維2的向量,值為array([1., 1.]) torch.from_numpy(data) # 從numpy中引入數據,值為tensor([1., 1.], dtype=torch.float64)我們通常使用的bias偏置,就是維度為1的張量。
需要注意的是,在PyTorch0.3以及之前的版本中,維度為0的張量是不存在的,例如loss=0.3的dim為1,在PyTorch0.4以及以后的版本中,loss=0.3表示一個標量。
舉例:
下面一個例子中,dim=2,隨機正態分布數據:
下面一個例子中,dim=3,隨機均勻分布數據:
a = torch.rand(1,2,3) #生成隨機均勻分布數據 # tensor([[[0.9005, 0.5394, 0.7798], # [0.5691, 0.3837, 0.1468]]]) a[0] # tensor([[0.9005, 0.5394, 0.7798], # [0.5691, 0.3837, 0.1468]])三維張量,適合RNN這種網絡結構。
下面一個例子中,dim=4,隨機均勻分布數據:
四維張量,適合卷積神經網絡。
a = torch.rand(2,3,28,28) a.numel() # 表示tensor占用內存的數量 number of element a.dim() # a的維度總結
以上是生活随笔為你收集整理的PyTorch教程(一):张量数据类型的全部內容,希望文章能夠幫你解決所遇到的問題。
- 上一篇: 机器学习(四) 下采样和上采样
- 下一篇: PyTorch教程(三):索引与切片