日韩av黄I国产麻豆传媒I国产91av视频在线观看I日韩一区二区三区在线看I美女国产在线I麻豆视频国产在线观看I成人黄色短片

歡迎訪問 生活随笔!

生活随笔

當前位置: 首頁 > 人工智能 > pytorch >内容正文

pytorch

(翻译)60分钟入门深度学习工具-PyTorch

發(fā)布時間:2025/3/8 pytorch 75 豆豆
生活随笔 收集整理的這篇文章主要介紹了 (翻译)60分钟入门深度学习工具-PyTorch 小編覺得挺不錯的,現(xiàn)在分享給大家,幫大家做個參考.

60分鐘入門深度學習工具-PyTorch

作者:Soumith Chintala

原文翻譯自:

https://pytorch.org/tutorials/beginner/deep_learning_60min_blitz.html

中文翻譯、注釋制作:黃海廣

github下載:

https://github.com/fengdu78/machine_learning_beginner/tree/master/PyTorch_beginner

代碼全部測試通過。

配置環(huán)境:PyTorch 1.3,python 3.7,

主機:顯卡:一塊1080ti;內存:32g(注:絕大部分代碼不需要GPU)

目錄

  • 一、Pytorch是什么?

  • 二、AUTOGRAD

  • 三、神經網絡

  • 四、訓練一個分類器

  • 五、數據并行

一、PyTorch 是什么

他是一個基于Python的科學計算包,目標用戶有兩類

  • 為了使用GPU來替代numpy

  • 一個深度學習研究平臺:提供最大的靈活性和速度

開始

張量(Tensors)

張量類似于numpy的ndarrays,不同之處在于張量可以使用GPU來加快計算。

from __future__ import print_function import torch

構建一個未初始化的5*3的矩陣:

x = torch.Tensor(5, 3) print(x) tensor([[ 0.0000e+00, 0.0000e+00, 1.3004e-42],[ 0.0000e+00, 7.0065e-45, 0.0000e+00],[-3.8593e+35, 7.8753e-43, 0.0000e+00],[ 0.0000e+00, 1.8368e-40, 0.0000e+00],[-3.8197e+35, 7.8753e-43, 0.0000e+00]])

構建一個零矩陣,使用long的類型

x = torch.zeros(5, 3, dtype=torch.long) print(x) tensor([[0, 0, 0],[0, 0, 0],[0, 0, 0],[0, 0, 0],[0, 0, 0]])

從數據中直接構建一個張量(tensor):

x = torch.tensor([5.5, 3]) print(x) tensor([5.5000, 3.0000])

或者在已有的張量(tensor)中構建一個張量(tensor). 這些方法將重用輸入張量(tensor)的屬性,例如, dtype,除非用戶提供新值

x = x.new_ones(5, 3, dtype=torch.double) # new_* methods take in sizes print(x)x = torch.randn_like(x, dtype=torch.float) # 覆蓋類型! print(x) # result 的size相同 tensor([[1., 1., 1.],[1., 1., 1.],[1., 1., 1.],[1., 1., 1.],[1., 1., 1.]], dtype=torch.float64) tensor([[ 1.1701, -0.8342, -0.6769],[-1.3060, 0.3636, 0.6758],[ 1.9133, 0.3494, 1.1412],[ 0.9735, -0.9492, -0.3082],[ 0.9469, -0.6815, -1.3808]])

獲取張量(tensor)的大小

print(x.size()) torch.Size([5, 3])

** 注意 **

torch.Size實際上是一個元組,所以它支持元組的所有操作。

操作

張量上的操作有多重語法形式,下面我們以加法為例進行講解。

語法1

y = torch.rand(5, 3) print(x + y) tensor([[ 1.7199, -0.1819, -0.1543],[-0.5413, 1.1591, 1.4098],[ 2.0421, 0.5578, 2.0645],[ 1.7301, -0.3236, 0.4616],[ 1.2805, -0.4026, -0.6916]])

語法二

print(torch.add(x, y)) tensor([[ 1.7199, -0.1819, -0.1543],[-0.5413, 1.1591, 1.4098],[ 2.0421, 0.5578, 2.0645],[ 1.7301, -0.3236, 0.4616],[ 1.2805, -0.4026, -0.6916]])

語法三:

給出一個輸出張量作為參數

result = torch.empty(5, 3) torch.add(x, y, out=result) print(result) tensor([[ 1.7199, -0.1819, -0.1543],[-0.5413, 1.1591, 1.4098],[ 2.0421, 0.5578, 2.0645],[ 1.7301, -0.3236, 0.4616],[ 1.2805, -0.4026, -0.6916]])

語法四:

原地操作(in-place)

# 把x加到y(tǒng)上 y.add_(x) print(y) tensor([[ 1.7199, -0.1819, -0.1543],[-0.5413, 1.1591, 1.4098],[ 2.0421, 0.5578, 2.0645],[ 1.7301, -0.3236, 0.4616],[ 1.2805, -0.4026, -0.6916]])

注意

任何在原地(in-place)改變張量的操作都有一個_后綴。例如x.copy_(y), x.t_()操作將改變x.

你可以使用所有的numpy索引操作。

你可以使用各種類似標準NumPy的花哨的索引功能

print(x[:, 1]) tensor([-0.8342, 0.3636, 0.3494, -0.9492, -0.6815])

調整大小:如果要調整張量/重塑張量,可以使用torch.view:

x = torch.randn(4, 4) y = x.view(16) z = x.view(-1, 8) # -1的意思是沒有指定維度 print(x.size(), y.size(), z.size()) torch.Size([4, 4]) torch.Size([16]) torch.Size([2, 8])

如果你有一個單元素張量,使用.item()將值作為Python數字

x = torch.randn(1) print(x) print(x.item()) tensor([0.3441]) 0.34412217140197754

稍后閱讀

這里:(https://pytorch.org/docs/stable/torch.html)

描述了一百多種張量操作,包括轉置,索引,數學運算,線性代數,隨機數等。

Numpy橋

把一個torch張量轉換為numpy數組或者反過來都是很簡單的。

Torch張量和numpy數組將共享潛在的內存,改變其中一個也將改變另一個。

把Torch張量轉換為numpy數組

a = torch.ones(5) print(a) tensor([1., 1., 1., 1., 1.]) b = a.numpy() print(b) print(type(b)) [ 1. 1. 1. 1. 1.] <class 'numpy.ndarray'>

通過如下操作,我們看一下numpy數組的值如何在改變。

a.add_(1) print(a) print(b) tensor([2., 2., 2., 2., 2.]) [ 2. 2. 2. 2. 2.]

把numpy數組轉換為torch張量

看看改變numpy數組如何自動改變torch張量。

import numpy as np a = np.ones(5) b = torch.from_numpy(a) np.add(a, 1, out=a) print(a) print(b) [ 2. 2. 2. 2. 2.] tensor([2., 2., 2., 2., 2.], dtype=torch.float64)

所有在CPU上的張量,除了字符張量,都支持在numpy之間轉換。

CUDA張量

可以使用.to方法將張量移動到任何設備上。

# let us run this cell only if CUDA is available # We will use ``torch.device`` objects to move tensors in and out of GPU if torch.cuda.is_available():device = torch.device("cuda") # a CUDA device objecty = torch.ones_like(x, device=device) # directly create a tensor on GPUx = x.to(device) # or just use strings ``.to("cuda")``z = x + yprint(z)print(z.to("cpu", torch.double)) # ``.to`` can also change dtype together! tensor([1.3441], device='cuda:0') tensor([1.3441], dtype=torch.float64)

本章的官方代碼:

  • Jupyter notebook:

    https://pytorch.org/tutorials/_downloads/3c2b25b8a9f72db7780a6bf9b5fc9f62/tensor_tutorial.ipynb

二、Autograd: 自動求導(automatic differentiation)

PyTorch 中所有神經網絡的核心是autograd包.我們首先簡單介紹一下這個包,然后訓練我們的第一個神經網絡.

autograd包為張量上的所有操作提供了自動求導.它是一個運行時定義的框架,這意味著反向傳播是根據你的代碼如何運行來定義,并且每次迭代可以不同.

接下來我們用一些簡單的示例來看這個包:

張量(Tensor)

torch.Tensor是包的核心類。如果將其屬性.requires_grad設置為True,則會開始跟蹤其上的所有操作。完成計算后,您可以調用.backward()并自動計算所有梯度。此張量的梯度將累積到.grad屬性中。

要阻止張量跟蹤歷史記錄,可以調用.detach()將其從計算歷史記錄中分離出來,并防止將來的計算被跟蹤。

要防止跟蹤歷史記錄(和使用內存),您還可以使用torch.no_grad()包裝代碼塊:在評估模型時,這可能特別有用,因為模型可能具有requires_grad = True的可訓練參數,但我們不需要梯度。

還有一個類對于autograd實現(xiàn)非常重要 - Function。

Tensor和Function互相連接并構建一個非循環(huán)圖構建一個完整的計算過程。每個張量都有一個.grad_fn屬性,該屬性引用已創(chuàng)建Tensor的Function(除了用戶創(chuàng)建的Tensors ?- 它們的grad_fn為None)。

如果要計算導數,可以在Tensor上調用.backward()。如果Tensor是標量(即它包含一個元素數據),則不需要為backward()指定任何參數,但是如果它有更多元素,則需要指定一個梯度參數,該參數是匹配形狀的張量。

import torch

創(chuàng)建一個張量并設置requires_grad = True以跟蹤它的計算

x = torch.ones(2, 2, requires_grad=True) print(x) tensor([[1., 1.],[1., 1.]], requires_grad=True)

在張量上執(zhí)行操作:

y = x + 2 print(y) tensor([[3., 3.],[3., 3.]], grad_fn=<AddBackward0>)

因為y是通過一個操作創(chuàng)建的,所以它有grad_fn,而x是由用戶創(chuàng)建,所以它的grad_fn為None.

print(y.grad_fn) print(x.grad_fn) <AddBackward0 object at 0x000001E020B794A8> None

在y上執(zhí)行操作

z = y * y * 3 out = z.mean()print(z, out) tensor([[27., 27.],[27., 27.]], grad_fn=<MulBackward0>) tensor(27., grad_fn=<MeanBackward1>)

.requires\_grad_(...)就地更改現(xiàn)有的Tensor的requires_grad標志。如果沒有給出,輸入標志默認為False。

a = torch.randn(2, 2) a = ((a * 3) / (a - 1)) print(a.requires_grad) a.requires_grad_(True) print(a.requires_grad) b = (a * a).sum() print(b.grad_fn) False True <SumBackward0 object at 0x000001E020B79FD0>

梯度(Gradients)

現(xiàn)在我們來執(zhí)行反向傳播,out.backward()相當于執(zhí)行out.backward(torch.tensor(1.))

out.backward()

輸出out對x的梯度d(out)/dx:

print(x.grad) tensor([[4.5000, 4.5000],[4.5000, 4.5000]])

你應該得到一個值全為4.5的矩陣,我們把張量out稱為"". 則:,?,并且?? ,所以,, 因此?在數學上,如果你有一個向量值函數?,則相對于的梯度是雅可比矩陣:

一般來說,torch.autograd是一個計算雅可比向量積的引擎。也就是說,給定任何向量,計算乘積。如果恰好是標量函數的梯度,即?然后根據鏈式法則,雅可比向量乘積將是相對于的梯度

雅可比向量積的這種特性使得將外部梯度饋送到具有非標量輸出的模型中非常方便。

現(xiàn)在讓我們來看一個雅可比向量積的例子:

x = torch.randn(3, requires_grad=True) y = x * 2 while y.data.norm() < 1000:y = y * 2 print(y) tensor([ 384.5854, -13.6405, -1049.2870], grad_fn=<MulBackward0>)

現(xiàn)在在這種情況下,y不再是標量。torch.autograd無法直接計算完整雅可比行列式,但如果我們只想要雅可比向量積,只需將向量作為參數向后傳遞:

v = torch.tensor([0.1, 1.0, 0.0001], dtype=torch.float) y.backward(v) print(x.grad) tensor([5.1200e+01, 5.1200e+02, 5.1200e-02])

您還可以通過torch.no_grad()代碼,在張量上使用.requires_grad = True來停止使用跟蹤歷史記錄。

print(x.requires_grad) print((x ** 2).requires_grad)with torch.no_grad():print((x ** 2).requires_grad) True True False

關于autograd和Function的文檔在http://pytorch.org/docs/autograd

本章的官方代碼:

  • Jupyter notebook:

    https://pytorch.org/tutorials/_downloads/009cea8b0f40dfcb55e3280f73b06cc2/autograd_tutorial.ipynb

三、神經網絡

可以使用torch.nn包來構建神經網絡.

你已知道autograd包,nn包依賴autograd包來定義模型并求導.一個nn.Module包含各個層和一個forward(input)方法,該方法返回output.

例如,我們來看一下下面這個分類數字圖像的網絡.

它是一個簡單的前饋神經網絡,它接受一個輸入,然后一層接著一層的輸入,直到最后得到結果。

神經網絡的典型訓練過程如下:

  • 定義神經網絡模型,它有一些可學習的參數(或者權重);

  • 在數據集上迭代;

  • 通過神經網絡處理輸入;

  • 計算損失(輸出結果和正確值的差距大小)

  • 將梯度反向傳播會網絡的參數;

  • 更新網絡的參數,主要使用如下簡單的更新原則:weight = weight - learning_rate * gradient

定義網絡

我們先定義一個網絡:

import torch import torch.nn as nn import torch.nn.functional as Fclass Net(nn.Module):def __init__(self):super(Net, self).__init__()# 1 input image channel, 6 output channels, 5x5 square convolution# kernelself.conv1 = nn.Conv2d(1, 6, 5)self.conv2 = nn.Conv2d(6, 16, 5)# an affine operation: y = Wx + bself.fc1 = nn.Linear(16 * 5 * 5, 120)self.fc2 = nn.Linear(120, 84)self.fc3 = nn.Linear(84, 10)def forward(self, x):# Max pooling over a (2, 2) windowx = F.max_pool2d(F.relu(self.conv1(x)), (2, 2))# If the size is a square you can only specify a single numberx = F.max_pool2d(F.relu(self.conv2(x)), 2)x = x.view(-1, self.num_flat_features(x))x = F.relu(self.fc1(x))x = F.relu(self.fc2(x))x = self.fc3(x)return xdef num_flat_features(self, x):size = x.size()[1:] # all dimensions except the batch dimensionnum_features = 1for s in size:num_features *= sreturn num_featuresnet = Net() print(net) Net((conv1): Conv2d(1, 6, kernel_size=(5, 5), stride=(1, 1))(conv2): Conv2d(6, 16, kernel_size=(5, 5), stride=(1, 1))(fc1): Linear(in_features=400, out_features=120, bias=True)(fc2): Linear(in_features=120, out_features=84, bias=True)(fc3): Linear(in_features=84, out_features=10, bias=True) )

你只需定義forward函數,backward函數(計算梯度)在使用autograd時自動為你創(chuàng)建.你可以在forward函數中使用Tensor的任何操作。

net.parameters()返回模型需要學習的參數。

params = list(net.parameters()) print(len(params)) print(params[0].size()) 10 torch.Size([6, 1, 5, 5])

forward的輸入和輸出都是autograd.Variable.注意:這個網絡(LeNet)期望的輸入大小是32*32.如果使用MNIST數據集來訓練這個網絡,請把圖片大小重新調整到32*32.

input = torch.randn(1, 1, 32, 32) out = net(input) print(out) tensor([[-0.1217, 0.0449, -0.0392, -0.1103, -0.0534, -0.1108, -0.0565, 0.0116,0.0867, 0.0102]], grad_fn=<AddmmBackward>)

將所有參數的梯度緩存清零,然后進行隨機梯度的的反向傳播.

net.zero_grad() out.backward(torch.randn(1, 10))
  • 注意

  • torch.nn 只支持小批量輸入,整個torch.nn包都只支持小批量樣本,而不支持單個樣本

  • 例如,nn.Conv2d將接受一個4維的張量,每一維分別是(樣本數*通道數*高*寬).

  • 如果你有單個樣本,只需使用input.unsqueeze(0)來添加其它的維數.

在繼續(xù)之前,我們回顧一下到目前為止見過的所有類.

回顧

  • torch.Tensor-支持自動編程操作(如backward())的多維數組。同時保持梯度的張量。

  • nn.Module-神經網絡模塊.封裝參數,移動到GPU上運行,導出,加載等

  • nn.Parameter-一種張量,當把它賦值給一個Module時,被自動的注冊為參數.

  • autograd.Function-實現(xiàn)一個自動求導操作的前向和反向定義, 每個張量操作都會創(chuàng)建至少一個Function節(jié)點,該節(jié)點連接到創(chuàng)建張量并對其歷史進行編碼的函數。

現(xiàn)在,我們包含了如下內容:

  • 定義一個神經網絡

  • 處理輸入和調用backward

剩下的內容:

  • 計算損失值

  • 更新神經網絡的權值

損失函數

一個損失函數接受一對(output, target)作為輸入(output為網絡的輸出,target為實際值),計算一個值來估計網絡的輸出和目標值相差多少。

在nn包中有幾種不同的損失函數.一個簡單的損失函數是:nn.MSELoss,它計算輸入和目標之間的均方誤差。

例如:

output = net(input) target = torch.randn(10) # a dummy target, for example target = target.view(1, -1) # make it the same shape as output criterion = nn.MSELoss()loss = criterion(output, target) print(loss) tensor(0.5663, grad_fn=<MseLossBackward>)

現(xiàn)在,你反向跟蹤loss,使用它的.grad_fn屬性,你會看到向下面這樣的一個計算圖:

input -> conv2d -> relu -> maxpool2d -> conv2d -> relu -> maxpool2d -> view -> linear -> relu -> linear -> relu -> linear -> MSELoss -> loss

所以, 當你調用loss.backward(),整個圖被區(qū)分為損失以及圖中所有具有requires_grad = True的張量,并且其.grad 張量的梯度累積。

為了說明,我們反向跟蹤幾步:

print(loss.grad_fn) # MSELoss print(loss.grad_fn.next_functions[0][0]) # Linear print(loss.grad_fn.next_functions[0][0].next_functions[0][0]) <MseLossBackward object at 0x0000029E54C509B0> <AddmmBackward object at 0x0000029E54C50898> <AccumulateGrad object at 0x0000029E54C509B0>

反向傳播

為了反向傳播誤差,我們所需做的是調用loss.backward().你需要清除已存在的梯度,否則梯度將被累加到已存在的梯度。

現(xiàn)在,我們將調用loss.backward(),并查看conv1層的偏置項在反向傳播前后的梯度。

net.zero_grad() # zeroes the gradient buffers of all parametersprint('conv1.bias.grad before backward') print(net.conv1.bias.grad)loss.backward()print('conv1.bias.grad after backward') print(net.conv1.bias.grad) conv1.bias.grad before backward tensor([0., 0., 0., 0., 0., 0.]) conv1.bias.grad after backward tensor([ 0.0006, -0.0164, 0.0122, -0.0060, -0.0056, -0.0052])

稍后閱讀:

神經網絡包包含了各種用來構成深度神經網絡構建塊的模塊和損失函數,一份完整的文檔查看[這里]:(https://pytorch.org/docs/nn)

唯一剩下的內容:

  • 更新網絡的權重

更新權重

實踐中最簡單的更新規(guī)則是隨機梯度下降(SGD).

weight=weight?learning_rate?gradient

我們可以使用簡單的Python代碼實現(xiàn)這個規(guī)則。

learning_rate = 0.01 for f in net.parameters():f.data.sub_(f.grad.data * learning_rate)

然而,當你使用神經網絡是,你想要使用各種不同的更新規(guī)則,比如SGD,Nesterov-SGD,Adam, RMSPROP等.為了能做到這一點,我們構建了一個包torch.optim實現(xiàn)了所有的這些規(guī)則.使用他們非常簡單:

import torch.optim as optim# create your optimizer optimizer = optim.SGD(net.parameters(), lr=0.01)# in your training loop: optimizer.zero_grad() # zero the gradient buffers output = net(input) loss = criterion(output, target) loss.backward() optimizer.step() # Does the update

注意

觀察如何使用optimizer.zero_grad()手動將梯度緩沖區(qū)設置為零。這是因為梯度是反向傳播部分中的說明那樣是累積的。

本章的官方代碼:

  • Jupyter notebook:

    https://pytorch.org/tutorials/_downloads/97abb4c06a586d45ef3fc4b4b9634406/neural_networks_tutorial.ipynb

四、訓練一個分類器

你已經學會如何去定義一個神經網絡,計算損失值和更新網絡的權重。

你現(xiàn)在可能在思考:數據哪里來呢?

關于數據

通常,當你處理圖像,文本,音頻和視頻數據時,你可以使用標準的Python包來加載數據到一個numpy數組中.然后把這個數組轉換成torch.*Tensor。

  • 對于圖像,有諸如Pillow,OpenCV包等非常實用

  • 對于音頻,有諸如scipy和librosa包

  • 對于文本,可以用原始Python和Cython來加載,或者使用NLTK和SpaCy 對于視覺,我們創(chuàng)建了一個torchvision包,包含常見數據集的數據加載,比如Imagenet,CIFAR10,MNIST等,和圖像轉換器,也就是torchvision.datasets和torch.utils.data.DataLoader。

這提供了巨大的便利,也避免了代碼的重復。

在這個教程中,我們使用CIFAR10數據集,它有如下10個類別:’airplane’,’automobile’,’bird’,’cat’,’deer’,’dog’,’frog’,’horse’,’ship’,’truck’。這個數據集中的圖像大小為3*32*32,即,3通道,32*32像素。

訓練一個圖像分類器

我們將按照下列順序進行:

  • 使用torchvision加載和歸一化CIFAR10訓練集和測試集.

  • 定義一個卷積神經網絡

  • 定義損失函數

  • 在訓練集上訓練網絡

  • 在測試集上測試網絡

1. 加載和歸一化CIFAR0

使用torchvision加載CIFAR10是非常容易的。

import torch import torchvision import torchvision.transforms as transforms

torchvision的輸出是[0,1]的PILImage圖像,我們把它轉換為歸一化范圍為[-1, 1]的張量。

transform = transforms.Compose([transforms.ToTensor(),transforms.Normalize((0.5, 0.5, 0.5), (0.5, 0.5, 0.5))])trainset = torchvision.datasets.CIFAR10(root='./data', train=True,download=True, transform=transform) trainloader = torch.utils.data.DataLoader(trainset, batch_size=4,shuffle=True, num_workers=2)testset = torchvision.datasets.CIFAR10(root='./data', train=False,download=True, transform=transform) testloader = torch.utils.data.DataLoader(testset, batch_size=4,shuffle=False, num_workers=2)classes = ('plane', 'car', 'bird', 'cat','deer', 'dog', 'frog', 'horse', 'ship', 'truck') #這個過程有點慢,會下載大約340mb圖片數據。 Files already downloaded and verified Files already downloaded and verified

我們展示一些有趣的訓練圖像。

import matplotlib.pyplot as plt import numpy as np# functions to show an image def imshow(img):img = img / 2 + 0.5 # unnormalizenpimg = img.numpy()plt.imshow(np.transpose(npimg, (1, 2, 0)))plt.show()# get some random training images dataiter = iter(trainloader) images, labels = dataiter.next()# show images imshow(torchvision.utils.make_grid(images)) # print labels print(' '.join('%5s' % classes[labels[j]] for j in range(4)))

plane? ? ? ? ? ? ? ? ???deer? ? ? ? ? ?? ? dog? ? ? ? ? ? ? ? ? plane

2. 定義一個卷積神經網絡

從之前的神經網絡一節(jié)復制神經網絡代碼,并修改為接受3通道圖像取代之前的接受單通道圖像。

import torch.nn as nn import torch.nn.functional as Fclass Net(nn.Module):def __init__(self):super(Net, self).__init__()self.conv1 = nn.Conv2d(3, 6, 5)self.pool = nn.MaxPool2d(2, 2)self.conv2 = nn.Conv2d(6, 16, 5)self.fc1 = nn.Linear(16 * 5 * 5, 120)self.fc2 = nn.Linear(120, 84)self.fc3 = nn.Linear(84, 10)def forward(self, x):x = self.pool(F.relu(self.conv1(x)))x = self.pool(F.relu(self.conv2(x)))x = x.view(-1, 16 * 5 * 5)x = F.relu(self.fc1(x))x = F.relu(self.fc2(x))x = self.fc3(x)return xnet = Net()

3. 定義損失函數和優(yōu)化器

我們使用交叉熵作為損失函數,使用帶動量的隨機梯度下降。

import torch.optim as optim criterion = nn.CrossEntropyLoss() optimizer = optim.SGD(net.parameters(), lr=0.001, momentum=0.9)

4. 訓練網絡

這是開始有趣的時刻,我們只需在數據迭代器上循環(huán),把數據輸入給網絡,并優(yōu)化。

for epoch in range(2): # loop over the dataset multiple timesrunning_loss = 0.0for i, data in enumerate(trainloader, 0):# get the inputsinputs, labels = data# zero the parameter gradientsoptimizer.zero_grad()# forward + backward + optimizeoutputs = net(inputs)loss = criterion(outputs, labels)loss.backward()optimizer.step()# print statisticsrunning_loss += loss.item()if i % 2000 == 1999: # print every 2000 mini-batchesprint('[%d, %5d] loss: %.3f' %(epoch + 1, i + 1, running_loss / 2000))running_loss = 0.0print('Finished Training') [1, 2000] loss: 2.286 [1, 4000] loss: 1.921 [1, 6000] loss: 1.709 [1, 8000] loss: 1.618 [1, 10000] loss: 1.548 [1, 12000] loss: 1.496 [2, 2000] loss: 1.435 [2, 4000] loss: 1.409 [2, 6000] loss: 1.373 [2, 8000] loss: 1.348 [2, 10000] loss: 1.326 [2, 12000] loss: 1.313 Finished Training

5. 在測試集上測試網絡

我們在整個訓練集上訓練了兩次網絡,但是我們還需要檢查網絡是否從數據集中學習到東西。

我們通過預測神經網絡輸出的類別標簽并根據實際情況進行檢測,如果預測正確,我們把該樣本添加到正確預測列表。

第一步,顯示測試集中的圖片一遍熟悉圖片內容。

dataiter = iter(testloader) images, labels = dataiter.next() # print images imshow(torchvision.utils.make_grid(images)) print('GroundTruth: ', ' '.join('%5s' % classes[labels[j]] for j in range(4))) GroundTruth: cat ship ship plane

現(xiàn)在我們來看看神經網絡認為以上圖片是什么?

outputs = net(images)

輸出是10個標簽的概率。一個類別的概率越大,神經網絡越認為他是這個類別。所以讓我們得到最高概率的標簽。

_, predicted = torch.max(outputs, 1)print('Predicted: ', ' '.join('%5s' % classes[predicted[j]]for j in range(4))) Predicted: cat ship ship plane

這結果看起來非常的好。

接下來讓我們看看網絡在整個測試集上的結果如何。

correct = 0 total = 0 with torch.no_grad():for data in testloader:images, labels = dataoutputs = net(images)_, predicted = torch.max(outputs.data, 1)total += labels.size(0)correct += (predicted == labels).sum().item()print('Accuracy of the network on the 10000 test images: %d %%' % (100 * correct / total)) Accuracy of the network on the 10000 test images: 54 %

結果看起來好于偶然,偶然的正確率為10%,似乎網絡學習到了一些東西。

那在什么類上預測較好,什么類預測結果不好呢?

class_correct = list(0. for i in range(10)) class_total = list(0. for i in range(10)) with torch.no_grad():for data in testloader:images, labels = dataoutputs = net(images)_, predicted = torch.max(outputs, 1)c = (predicted == labels).squeeze()for i in range(4):label = labels[i]class_correct[label] += c[i].item()class_total[label] += 1for i in range(10):print('Accuracy of %5s : %2d %%' % (classes[i], 100 * class_correct[i] / class_total[i])) Accuracy of plane : 52 % Accuracy of car : 63 % Accuracy of bird : 43 % Accuracy of cat : 33 % Accuracy of deer : 36 % Accuracy of dog : 46 % Accuracy of frog : 68 % Accuracy of horse : 62 % Accuracy of ship : 80 % Accuracy of truck : 63 %

接下來干什么?

我們如何在GPU上運行神經網絡呢?

在GPU上訓練

你是如何把一個Tensor轉換GPU上,你就如何把一個神經網絡移動到GPU上訓練。這個操作會遞歸遍歷有所模塊,并將其參數和緩沖區(qū)轉換為CUDA張量。

device = torch.device("cuda:0" if torch.cuda.is_available() else "cpu") # Assume that we are on a CUDA machine, then this should print a CUDA device: #假設我們有一臺CUDA的機器,這個操作將顯示CUDA設備。 print(device) cuda:0

接下來假設我們有一臺CUDA的機器,然后這些方法將遞歸遍歷所有模塊并將其參數和緩沖區(qū)轉換為CUDA張量:

net.to(device) Net((conv1): Conv2d(3, 6, kernel_size=(5, 5), stride=(1, 1))(pool): MaxPool2d(kernel_size=2, stride=2, padding=0, dilation=1, ceil_mode=False)(conv2): Conv2d(6, 16, kernel_size=(5, 5), stride=(1, 1))(fc1): Linear(in_features=400, out_features=120, bias=True)(fc2): Linear(in_features=120, out_features=84, bias=True)(fc3): Linear(in_features=84, out_features=10, bias=True) )

請記住,你也必須在每一步中把你的輸入和目標值轉換到GPU上:

inputs, labels = inputs.to(device), labels.to(device)

為什么我們沒注意到GPU的速度提升很多?那是因為網絡非常的小。

實踐:

嘗試增加你的網絡的寬度(第一個nn.Conv2d的第2個參數, 第二個nn.Conv2d的第一個參數,他們需要是相同的數字),看看你得到了什么樣的加速。

實現(xiàn)的目標:

  • 深入了解了PyTorch的張量庫和神經網絡

  • 訓練了一個小網絡來分類圖片

本章的官方代碼:

  • Jupyter notebook:

    https://pytorch.org/tutorials/_downloads/17a7c7cb80916fcdf921097825a0f562/cifar10_tutorial.ipynb

五、數據并行(選讀)

作者:Sung Kim和Jenny Kang

在這個教程里,我們將學習如何使用數據并行(DataParallel)來使用多GPU。

PyTorch非常容易的就可以使用GPU,你可以用如下方式把一個模型放到GPU上:

device = torch.device("cuda:0")

model.to(device)

然后你可以復制所有的張量到GPU上:

mytensor = my_tensor.to(device)

請注意,只調用mytensor.gpu()并沒有復制張量到GPU上。你需要把它賦值給一個新的張量并在GPU上使用這個張量。

在多GPU上執(zhí)行前向和反向傳播是自然而然的事。然而,PyTorch默認將只是用一個GPU。你可以使用DataParallel讓模型并行運行來輕易的讓你的操作在多個GPU上運行。

model = nn.DataParallel(model)

這是這篇教程背后的核心,我們接下來將更詳細的介紹它。

導入和參數

導入PyTorch模塊和定義參數。

import torch import torch.nn as nn from torch.utils.data import Dataset, DataLoader# Parameters and DataLoaders input_size = 5 output_size = 2batch_size = 30 data_size = 100

設備:

device = torch.device("cuda:0" if torch.cuda.is_available() else "cpu")

虛擬數據集

制作一個虛擬(隨機)數據集,你只需實現(xiàn)__getitem__。

class RandomDataset(Dataset):def __init__(self, size, length):self.len = lengthself.data = torch.randn(length, size)def __getitem__(self, index):return self.data[index]def __len__(self):return self.lenrand_loader = DataLoader(dataset=RandomDataset(input_size, data_size),batch_size=batch_size, shuffle=True)

簡單模型

作為演示,我們的模型只接受一個輸入,執(zhí)行一個線性操作,然后得到結果。然而,你能在任何模型(CNN,RNN,Capsule Net等)上使用DataParallel。

我們在模型內部放置了一條打印語句來檢測輸入和輸出向量的大小。請注意批等級為0時打印的內容。

class Model(nn.Module):# Our modeldef __init__(self, input_size, output_size):super(Model, self).__init__()self.fc = nn.Linear(input_size, output_size)def forward(self, input):output = self.fc(input)print("\tIn Model: input size", input.size(),"output size", output.size())return output

創(chuàng)建一個模型和數據并行

這是本教程的核心部分。首先,我們需要創(chuàng)建一個模型實例和檢測我們是否有多個GPU。如果我們有多個GPU,我們使用nn.DataParallel來包裝我們的模型。然后通過model.to(device)把模型放到GPU上。

model = Model(input_size, output_size) if torch.cuda.device_count() > 1:print("Let's use", torch.cuda.device_count(), "GPUs!")# dim = 0 [30, xxx] -> [10, ...], [10, ...], [10, ...] on 3 GPUsmodel = nn.DataParallel(model)model.to(device) Model((fc): Linear(in_features=5, out_features=2, bias=True) )

運行模型

現(xiàn)在我們可以看輸入和輸出張量的大小。

for data in rand_loader:input = data.to(device)output = model(input)print("Outside: input size", input.size(),"output_size", output.size()) In Model: input size torch.Size([30, 5]) output size torch.Size([30, 2]) Outside: input size torch.Size([30, 5]) output_size torch.Size([30, 2])In Model: input size torch.Size([30, 5]) output size torch.Size([30, 2]) Outside: input size torch.Size([30, 5]) output_size torch.Size([30, 2])In Model: input size torch.Size([30, 5]) output size torch.Size([30, 2]) Outside: input size torch.Size([30, 5]) output_size torch.Size([30, 2])In Model: input size torch.Size([10, 5]) output size torch.Size([10, 2]) Outside: input size torch.Size([10, 5]) output_size torch.Size([10, 2])

結果

當我們對30個輸入和輸出進行批處理時,我們和期望的一樣得到30個輸入和30個輸出,但是如果你有多個GPU,你得到如下的結果。

2個GPU

如果你有2個GPU,你將看到:

3個GPU:

如果你有3個GPU,你將看到:

8個GPU:

如果你有8個GPU,你將看到:

總結

DataParallel自動的劃分數據,并將作業(yè)發(fā)送到多個GPU上的多個模型。在每個模型完成作業(yè)后,DataParallel收集并合并結果返回給你。

更多信息請看這里:

http://pytorch.org/tutorials/beginner/former_torchies/parallelism_tutorial.html

本章的官方代碼:

  • Jupyter notebook:

    https://pytorch.org/tutorials/_downloads/63ecfdf27b96977f3a89015f60065a2b/data_parallel_tutorial.ipynb

結束語

翻譯版本github下載:

https://github.com/fengdu78/machine_learning_beginner/tree/master/PyTorch_beginner

備注:公眾號菜單包含了整理了一本AI小抄非常適合在通勤路上用學習。

往期精彩回顧2019年公眾號文章精選適合初學者入門人工智能的路線及資料下載機器學習在線手冊深度學習在線手冊AI基礎下載(第一部分)備注:加入本站微信群或者qq群,請回復“加群”加入知識星球(4500+用戶,ID:92416895),請回復“知識星球”

喜歡文章,點個在看

總結

以上是生活随笔為你收集整理的(翻译)60分钟入门深度学习工具-PyTorch的全部內容,希望文章能夠幫你解決所遇到的問題。

如果覺得生活随笔網站內容還不錯,歡迎將生活随笔推薦給好友。

国内精品久久天天躁人人爽 | 蜜臀av网址 | 婷婷国产精品 | v片在线播放 | 美女视频是黄的免费观看 | 丰满少妇一级 | 色综合久久88 | 不卡国产在线 | 中文av日韩| 天天天天天天操 | 欧美成人影音 | 人人插人人艹 | 国产精品视频免费观看 | 久青草电影 | 日韩专区一区二区 | 天天在线视频色 | 亚洲免费公开视频 | 久久伊人综合 | av三区在线| 四虎成人免费影院 | 亚洲成人黄色网址 | 国产精品久久三 | 粉嫩高清一区二区三区 | 色婷婷av国产精品 | 国产麻豆精品传媒av国产下载 | av资源中文字幕 | 亚洲欧美日韩精品一区二区 | 天天伊人狠狠 | 黄色软件大全网站 | 首页国产精品 | 亚洲美女免费精品视频在线观看 | 日韩av一区二区三区在线观看 | 亚洲国产美女久久久久 | 91福利在线观看 | 日韩com| 国产精品人人做人人爽人人添 | 成人资源站 | 激情伊人五月天久久综合 | 日韩系列在线 | 久久av网址 | 国产精品999久久久 久产久精国产品 | 国产一级大片在线观看 | 日韩高清网站 | 国产精品自产拍 | 成人一区二区三区在线 | 国模精品一区二区三区 | 一区二区三区av在线 | 亚洲综合在线观看视频 | 国产免费不卡 | 国产高清视频在线 | 99视频一区二区 | 久久字幕网 | 91精品国自产在线 | 777久久久| 18av在线视频 | 99久久久久久久久久 | 久久精品国产成人精品 | 精品一区 在线 | 国内精品久久久久影院日本资源 | 日韩精品久久一区二区三区 | 综合久久久久久久 | 国产成人久久精品一区二区三区 | 一区三区视频在线观看 | av免费在线免费观看 | 国产精品久久视频 | 精品一区二区三区香蕉蜜桃 | 色吊丝在线永久观看最新版本 | 国产精品va在线播放 | 性色在线视频 | 久久三级视频 | 欧美视频日韩视频 | 久久你懂得 | av成人资源 | 国产精品国产三级国产不产一地 | 精品国产乱码久久久久久1区2匹 | 日韩一区二区三区不卡 | 国产黄色av | 日韩视频免费观看高清完整版在线 | 亚洲成年人av | 久久久亚洲国产精品麻豆综合天堂 | 国产破处视频在线播放 | 日本中文字幕在线播放 | 9草在线 | 久 久久影院| 丁香综合五月 | 国产 欧美 日本 | 黄色毛片观看 | 婷婷综合五月天 | 97品白浆高清久久久久久 | 日韩国产精品久久久久久亚洲 | 久久精品久久99 | 爱干视频 | 激情九九 | 欧美日韩在线免费观看视频 | 国产精品久久久久久久久岛 | 五月婷婷激情 | 五月婷婷综合在线视频 | 欧美亚洲另类在线视频 | 91激情视频在线观看 | 日韩激情小视频 | 色婷婷狠狠五月综合天色拍 | 中文字幕二区在线观看 | 日韩理论在线视频 | 中文字幕大全 | 99久久婷婷国产综合亚洲 | 热久久最新地址 | 国产精品久久久久久久妇 | 黄色成人av| 成人在线播放视频 | 亚洲欧美乱综合图片区小说区 | 久久久18| 国产做a爱一级久久 | 欧美日韩一区三区 | 97在线观看免费高清完整版在线观看 | 久久精品理论 | 在线观看国产麻豆 | 国产精品v a免费视频 | 韩国精品一区二区三区六区色诱 | 久久国产精品一二三区 | 深夜免费福利在线 | 日韩视频1区 | 亚洲无吗天堂 | 首页av在线| 国产精品日韩欧美一区二区 | 亚洲国产999 | 国产不卡在线视频 | 在线免费高清 | 亚州精品天堂中文字幕 | 丁香六月国产 | 91精品国自产拍天天拍 | 四月婷婷在线观看 | 久久免费视频在线观看30 | 婷婷视频在线观看 | 91精品电影| 久久久久久网址 | 美女视频黄在线 | 亚洲天堂网在线播放 | 色视频 在线 | 国产日产精品一区二区三区四区的观看方式 | 国产69精品久久99的直播节目 | 日韩高清免费在线观看 | 69久久99精品久久久久婷婷 | 日韩av电影免费在线观看 | 91精品国自产在线偷拍蜜桃 | 一本到在线 | 国产手机av | 精品国产自在精品国产精野外直播 | 九九九九精品九九九九 | 18性欧美xxxⅹ性满足 | 国产污视频在线观看 | 91爱在线| a久久久久 | 一区二区国产精品 | 97色狠狠| 国产精品毛片一区视频播不卡 | 精品一区二区综合 | 丁香激情五月 | 亚洲 欧洲av| 精品国产一区二区在线 | 成人在线免费观看网站 | 国产亚洲一级高清 | 狠狠干狠狠久久 | 在线免费观看黄 | 波多野结衣日韩 | 久久综合欧美 | 精品久久久久久久久久久久久 | 国产一级精品在线观看 | 成人一级在线 | 永久免费在线 | 婷婷日| 精壮的侍卫呻吟h | 国产成人精品在线观看 | 亚洲国产精品视频 | 国产三级视频在线 | 中文字幕欧美日韩va免费视频 | 国产高清视频在线免费观看 | 亚洲婷婷在线视频 | 欧亚久久 | 国产99精品 | 色在线亚洲 | 亚洲午夜久久久久久久久电影网 | 黄色免费网站 | 欧美日韩不卡在线视频 | 精品福利在线视频 | 在线 影视 一区 | 色香蕉视频| 免费亚洲黄色 | 国产高清视频免费在线观看 | 国产糖心vlog在线观看 | 国产欧美精品一区二区三区四区 | 日本精品在线看 | 在线观看av小说 | 精品国自产在线观看 | 欧美日韩69| 一区二区三区免费在线播放 | 夜添久久精品亚洲国产精品 | 国产香蕉av | 国产一区成人在线 | 午夜.dj高清免费观看视频 | 精品国产亚洲在线 | 丁香激情五月 | 久久亚洲电影 | av在线一 | 亚洲三级黄 | 91成人免费 | 午夜av色| 国产午夜亚洲精品 | 亚洲另类在线视频 | 欧美午夜理伦三级在线观看 | 香蕉97视频观看在线观看 | 欧美午夜寂寞影院 | 免费视频一区二区 | 一区二区欧美日韩 | 精品美女久久 | 欧美有色 | 中文av影院 | a色视频 | 97视频人人免费看 | 最新影院 | 欧美日在线 | 免费碰碰 | 亚洲精品av中文字幕在线在线 | 91av视频在线观看 | 久草亚洲视频 | 国产一区二区不卡视频 | 午夜国产在线观看 | 狠狠色丁香婷婷综合欧美 | 青草视频在线 | 2023天天干| 一级做a爱片性色毛片www | 九九色综合 | 国产一级二级av | 亚洲a网 | 成人福利在线播放 | 国产一区二区精 | 高清精品视频 | 久久久久久久久久久电影 | 国产色视频123区 | 日韩视频免费在线观看 | 日韩三级不卡 | 国产精品久久久久久久久蜜臀 | 国产高清在线免费视频 | 69国产精品视频免费观看 | 日韩,精品电影 | 日韩av中文字幕在线 | 国产精品com | 最近日本中文字幕 | 黄色亚洲片 | 精品国产精品久久一区免费式 | 香蕉视频久久久 | 九九热久久久 | 婷婷午夜 | 亚洲乱亚洲乱妇 | 国产精品欧美久久久久天天影视 | 97精品国产手机 | 久久久高清一区二区三区 | 精品国产一区二区三区免费 | 91麻豆免费看 | 国产拍揄自揄精品视频麻豆 | 亚洲一区久久久 | 综合久久网站 | 国产精品福利午夜在线观看 | 日韩有码欧美 | 久久不卡日韩美女 | 狠狠的操狠狠的干 | 免费看黄色小说的网站 | 国内偷拍精品视频 | 精品国产一区二区三区在线 | 午夜在线国产 | av免费看网站 | 精品国产乱码久久久久久1区二区 | 国产精品视频最多的网站 | 亚洲精品自拍视频在线观看 | 国产在线观看你懂的 | 久久综合成人 | 91精品国产自产91精品 | 波多野结衣在线观看视频 | 91探花系列在线播放 | 天天做天天爱天天爽综合网 | 久久久精品电影 | 中文在线| 国产97在线播放 | 国产一区二区三区高清播放 | www欧美xxxx | 免费福利在线播放 | 国产成人一区二区精品非洲 | 久久久国产精品视频 | 国产高清一级 | 91免费版在线观看 | 91九色综合 | 日韩欧美在线综合网 | 黄色软件在线观看免费 | 亚洲综合视频在线播放 | 欧美在线你懂的 | 91超碰在线播放 | 99精品视频在线播放免费 | 91视频免费观看 | 成人黄色小说在线观看 | 波多野结衣电影一区二区三区 | 国产美女在线免费观看 | 欧美激情综合五月色丁香小说 | 国产视频在线观看免费 | 国产生活一级片 | 1024手机在线看 | 在线黄色国产电影 | 国产一级不卡视频 | 国产精品久久免费看 | 精品久久久久久亚洲综合网站 | 黄污视频网站 | 久久综合亚洲鲁鲁五月久久 | 国产精品人人做人人爽人人添 | 久久社区视频 | 国产精品久久久亚洲 | 午夜精品视频一区 | 天天狠狠操| 中文字幕在线观看日本 | 玖玖视频精品 | 成人免费在线视频 | 奇米影视四色8888 | 免费一级片观看 | 日韩高清黄色 | 欧美另类z0zx| 久久综合给合久久狠狠色 | 麻豆视频免费看 | 欧洲精品在线视频 | a级片网站 | 全久久久久久久久久久电影 | 在线亚洲精品 | 成人免费观看完整版电影 | 久久久免费看视频 | 精精国产xxxx视频在线播放 | 国产在线不卡 | 色综合天天做天天爱 | 丁香国产视频 | 日韩影视在线 | 免费男女羞羞的视频网站中文字幕 | 国产精品ⅴa有声小说 | 久黄色| 又长又大又黑又粗欧美 | 男女男视频 | 天堂视频中文在线 | 国内亚洲精品 | 2019中文最近的2019中文在线 | 精品人人爽 | 狠狠狠狠干 | 91麻豆产精品久久久久久 | 久久亚洲专区 | 国产色综合| 国产精品电影一区 | 国产系列在线观看 | 免费观看久久久 | 日韩精品一二三 | 亚洲国产人午在线一二区 | 国产精品久久久久四虎 | 91免费视频网站在线观看 | 久久精品视频3 | 最近中文字幕在线中文高清版 | a天堂中文在线 | 在线免费观看视频你懂的 | 精品亚洲国产视频 | 久久久福利 | 中文字幕在线观看你懂的 | 日韩欧美在线观看一区二区三区 | 激情电影影院 | 波多野结衣最新 | av三级在线免费观看 | 久久精品一区二区三区中文字幕 | 国产免费久久久久 | 欧美一级日韩三级 | 国产福利91精品 | 天堂在线一区二区三区 | 在线一二区 | 在线观看小视频 | 91精品视频在线看 | 色天天天 | 国产特级毛片aaaaaa毛片 | 香蕉视频在线免费 | 最新动作电影 | 免费色视频网址 | 777视频在线观看 | 国产网红在线 | 精品在线一区二区三区 | 超级碰碰免费视频 | 久久久国产99久久国产一 | 色九色| 免费高清在线一区 | 一区二区三区免费在线观看视频 | 日韩在线免费 | 久久免费视频6 | 91视频免费国产 | av成人在线电影 | 成人av动漫在线 | 亚洲国产日韩av | 国产亚洲高清视频 | 美女国内精品自产拍在线播放 | 色婷婷综合五月 | 日韩高清毛片 | 在线色网站 | 日韩欧美中文 | 天天综合入口 | 免费男女羞羞的视频网站中文字幕 | 国产原创av片| 91爱爱网址 | 99视频精品全国免费 | 久草久草久草久草 | 激情丁香综合五月 | 欧美高清视频不卡网 | www日日| 天天操天天射天天舔 | 欧美日韩国产一二三区 | 夜夜澡人模人人添人人看 | 一区二区三区四区精品视频 | 亚洲丝袜一区 | 五月天激情视频 | 九九九九精品九九九九 | 人人添人人澡人人澡人人人爽 | 高清国产午夜精品久久久久久 | 一本一道久久a久久精品 | 中文字幕电影高清在线观看 | 婷婷 中文字幕 | 日韩有码专区 | 私人av | 国产淫片| 日韩精品久久久免费观看夜色 | 成年人天堂com| 久久大香线蕉app | 99久久精品一区二区成人 | 久久久久久久久久久免费av | 婷婷成人在线 | 伊人伊成久久人综合网小说 | 久久亚洲私人国产精品 | 亚洲成人xxx | 中文字幕在线视频精品 | 日日麻批40分钟视频免费观看 | 国产精品国内免费一区二区三区 | 狠狠色狠狠色终合网 | 国产精品99页 | 91av99| 欧美性生交大片免网 | 在线欧美日韩 | 97超碰福利久久精品 | 成人免费91| 国产在线传媒 | 九九亚洲精品 | 国产精品日韩精品 | 蜜臀久久99静品久久久久久 | 人人射人人插 | 久久国产精品99久久久久久老狼 | 日韩精品欧美视频 | 婷婷丁香狠狠爱 | 在线免费高清一区二区三区 | 超碰97.com | 国产呻吟在线 | 国产精品成人免费精品自在线观看 | 狠狠色狠狠综合久久 | 国产麻豆精品久久一二三 | 欧美日韩免费视频 | 国产高清永久免费 | 久久成人国产精品入口 | 久草在线免费看视频 | 婷婷播播网 | 91免费观看视频在线 | 97精品国产91久久久久久久 | 九九视频在线观看视频6 | 亚洲成a人片在线观看网站口工 | 久草www| 国产999免费视频 | 欧美日韩在线视频观看 | 97国产在线 | 99久久精品国产一区二区三区 | av在线8| 亚洲一区尤物 | 中文字幕在线播放第一页 | 狠狠狠色丁香婷婷综合久久五月 | 久久成人高清视频 | 91麻豆产精品久久久久久 | 四虎永久网站 | 久草视频在线免费 | 中文字幕免费播放 | 亚洲国产精品久久久久久 | 性色在线视频 | 少妇视频一区 | 国产一级性生活视频 | av直接看 | 日韩精品在线一区 | 亚洲全部视频 | 亚洲日韩中文字幕 | 超碰97国产在线 | 日本黄色大片免费看 | 久久香蕉电影网 | 国产在线a免费观看 | 中文字幕免费播放 | 粉嫩一二三区 | 超碰97网站 | 亚洲欧美日韩在线一区二区 | 五月激情亚洲 | 国产精品色在线 | 人人草天天草 | 在线观看网站你懂的 | 99视频精品视频高清免费 | 色视频在线免费观看 | 人成在线免费视频 | 日韩一区二区免费在线观看 | 国产91影院 | 91高清视频免费 | 亚洲日本在线视频观看 | 国产精品在线看 | 亚洲一区视频免费观看 | 视频二区在线 | 欧洲成人免费 | 精品国产欧美一区二区三区不卡 | 亚洲天堂激情 | 婷婷丁香色 | 亚洲视频综合 | 欧美日韩精品综合 | 欧美精品一区二区在线观看 | 999久久久欧美日韩黑人 | 亚洲视频免费在线观看 | 天天射天天操天天干 | 99精品久久久久久久 | 天天综合网天天 | 国产精品久久久久久久久大全 | 中文字幕一区在线观看视频 | 欧美大片mv免费 | 久久视频免费看 | 91av视频在线免费观看 | 少妇视频在线播放 | 免费在线成人av电影 | 2017狠狠干 | 欧美超碰在线 | 亚洲精品在线免费观看视频 | 亚洲欧美日韩精品一区二区 | 日韩精品1区2区 | 免费国产在线视频 | 国产高清在线 | 激情网五月 | 蜜臀久久99精品久久久无需会员 | 精品成人网 | 久久精品看 | 日韩高清精品一区二区 | 91在线视频网址 | 欧美日韩久久一区 | 超碰人人在 | 国产精品免费人成网站 | 99国产一区二区三精品乱码 | 在线观看深夜视频 | 草久电影 | 91精品夜夜| 免费在线观看成年人视频 | 在线视频观看亚洲 | 在线免费中文字幕 | 久久久久 免费视频 | 永久av免费在线观看 | 免费99精品国产自在在线 | 人人舔人人爽 | 91福利社在线观看 | 美腿丝袜一区二区三区 | 免费a现在观看 | 国产精品综合在线 | 欧美a√在线 | 国产精品免费看 | 国产精品久久久久一区二区国产 | 国产福利在线不卡 | 午夜精品电影 | 亚洲午夜精品久久久久久久久 | 精品久久久久久久久亚洲 | 在线国产小视频 | 久久污视频 | 9免费视频 | 免费亚洲成人 | 国产精品久久久久久久久久ktv | 国产成人精品一区在线 | 国产一区二区三区四区在线 | 麻豆久久一区二区 | 亚洲在线精品 | 欧美性粗大hdvideo | 日韩女同一区二区三区在线观看 | 国产91精品看黄网站 | 99视频精品免费观看, | 欧美不卡视频在线 | avlulu久久精品 | 日韩国产欧美在线播放 | 亚洲精品午夜国产va久久成人 | 欧美a级成人淫片免费看 | 国产精品欧美在线 | 国产欧美最新羞羞视频在线观看 | 麻豆av电影 | 成年人免费电影 | 中文字幕色婷婷在线视频 | 国产精品久久久毛片 | 白丝av在线 | 91精品视频在线看 | 97人人模人人爽人人少妇 | 天天射天天爽 | 91av原创 | 久久99国产视频 | 97在线观看免费观看高清 | 日韩视频免费 | 在线观看中文av | 天堂av免费 | 97人人艹 | 午夜精品久久久久久久99 | 日韩欧美69 | 狠狠操电影网 | 久久综合影音 | av播放在线| 久久亚洲私人国产精品 | 久久国内精品99久久6app | 久久99久久99精品免观看软件 | 国产成人精品一区二区三区福利 | 草久视频在线 | 亚洲激情视频 | 中文字幕人成乱码在线观看 | 欧美精品国产精品 | 免费日韩一区 | 国产高清在线一区 | 四虎海外影库www4hu | 日韩精品一区二区三区中文字幕 | 亚洲精品www | 成年人免费电影在线观看 | 久久香蕉国产精品麻豆粉嫩av | 日韩a欧美 | 中文字幕日韩无 | 国产成人不卡 | 亚州精品国产 | 免费一级日韩欧美性大片 | 中文字幕日韩电影 | 波多野结衣电影一区 | 欧美日韩91 | 黄色亚洲片| 亚洲精品白浆高清久久久久久 | 久久免费资源 | 天天插狠狠插 | 久久av黄色 | 久久av观看| 丁香婷婷激情 | 91精品国自产在线偷拍蜜桃 | 97看片网 | 国产伦精品一区二区三区四区视频 | 日一日操一操 | 午夜精品一区二区三区免费视频 | 狠狠的操狠狠的干 | 国产精品伦一区二区三区视频 | 欧美日韩18 | 天天se天天cao天天干 | 精品视频97 | 亚洲欧洲精品一区二区 | 国产高清视频免费最新在线 | 热99在线视频 | 天堂网av在线 | 午夜久久福利视频 | 一级a毛片高清视频 | 天天操天天爱天天爽 | 欧美日韩精品在线观看视频 | 久草在线视频首页 | 91日韩精品 | 蜜桃视频色 | 日韩久久精品一区二区 | 久草久热 | 黄色大片中国 | 成人免费在线观看电影 | 久久久久久久看片 | 久久免费视频在线观看30 | 人人爱夜夜操 | 999精品视频| 天天操天天干天天爱 | 麻豆国产露脸在线观看 | 激情五月亚洲 | 国产视频精选在线 | 精品一区二区免费视频 | 国产剧情av在线播放 | 亚洲女裸体 | 久久精品视频日本 | 中文字幕在线观看第一页 | 色天堂在线视频 | 欧美激情视频一区 | 久久综合久久综合久久 | 91av蜜桃 | 久久五月天综合 | 亚洲高清精品在线 | 91成年人在线观看 | 成人国产精品久久久春色 | 国产日韩欧美精品在线观看 | 国产剧情一区二区在线观看 | 一区二区三区高清不卡 | 在线国产片 | 亚洲欧洲久久久 | 欧美整片sss | 日本公妇色中文字幕 | 五月天中文字幕 | 999视频在线观看 | 国产精品porn | 久久精品99久久久久久 | 日韩免费看视频 | 中文字幕免费高清在线 | 精品自拍网 | 日本久久综合网 | 在线日韩中文 | 丁香激情综合久久伊人久久 | 日韩欧美高清一区二区三区 | 成人小视频免费在线观看 | 亚洲视频一级 | 91桃色免费视频 | 久草爱 | 69国产成人综合久久精品欧美 | 国产一级不卡毛片 | 日韩一区在线播放 | 中文字幕av最新 | 午夜精品久久久久99热app | 美女久久久久久久 | 色夜视频 | 91高清视频 | 国产专区视频在线观看 | 97天天综合网 | 91福利影院在线观看 | 欧美一区二区精美视频 | 一级黄色视屏 | 四虎www.| 午夜性福利 | 91传媒视频在线观看 | 午夜黄色影院 | 国产美女无遮挡永久免费 | 992tv又爽又黄的免费视频 | 亚洲精品视频在 | 少妇做爰k8经典 | 天干啦夜天干天干在线线 | 久久精品高清视频 | 在线播放第一页 | 成年人免费看av | 2019久久精品| 国产美女主播精品一区二区三区 | 亚洲精欧美一区二区精品 | 99久久99久久精品免费 | 97人人添人澡人人爽超碰动图 | 日韩精品黄| 国产夫妻性生活自拍 | 久久综合久久88 | 国产一二区免费视频 | 久久不射电影网 | 人人爽人人 | 久久久国际精品 | 国产精品久久影院 | 91精品视频免费看 | 在线免费观看av网站 | 九九国产精品视频 | 午夜视频在线观看网站 | 精品天堂av | 成年在线观看 | 日韩一级网站 | 最近最新中文字幕 | 日韩精品一区二区三区第95 | 中文字幕中文字幕在线一区 | 欧美 日韩 成人 | 国产精品99久久免费黑人 | 激情网综合 | 亚洲少妇天堂 | 网站免费黄 | 国产亚洲va综合人人澡精品 | 激情五月六月婷婷 | 欧美激情视频在线免费观看 | 国产精品免费看久久久8精臀av | 粉嫩一二三区 | 黄色一级动作片 | 欧美性生活大片 | 精品一区 在线 | 成人国产精品一区二区 | 一级片视频免费观看 | 久久精品国产精品 | 国产精品成人av电影 | 日本精品视频一区 | 亚洲国产成人久久综合 | 麻豆91在线观看 | 曰韩精品| 亚洲国产精久久久久久久 | 日韩电影在线观看中文字幕 | 国产精品美女免费 | 日韩精品一区二区三区免费观看视频 | 天天做天天爱天天爽综合网 | 久久亚洲电影 | 亚洲最新av| 成人在线播放免费观看 | 99这里都是精品 | 国产精品久久久久一区二区三区共 | 成人午夜黄色 | 国产精品欧美久久久久三级 | 欧美日韩a视频 | 精品一区电影国产 | 黄污视频网站大全 | 日韩精品一区二区在线视频 | 一本一本久久a久久精品综合妖精 | 日本性视频 | 麻豆免费在线播放 | 亚洲欧美日韩中文在线 | 精品毛片一区二区免费看 | 丝袜美腿在线播放 | 国产五十路毛片 | 日本精品中文字幕在线观看 | 日韩久久久久久久久久 | 亚洲天天草 | 天天干天天天天 | 日韩午夜视频在线观看 | 久久精品欧美一 | 国产成人一区二区三区影院在线 | 国产在线观看91 | 中文字幕国产 | 欧美性色xo影院 | 中日韩男男gay无套 日韩精品一区二区三区高清免费 | 亚洲一区精品二人人爽久久 | 亚洲视频一级 | a在线观看免费视频 | 亚洲欧美综合精品久久成人 | 欧美成人播放 | 天天爽天天爽天天爽 | 手机av电影在线观看 | 国产高清视频在线观看 | 精品国产精品久久 | 日韩激情第一页 | 狠狠躁18三区二区一区ai明星 | 亚洲精品美女久久 | 亚洲综合色站 | 国产视频精选在线 | 美女视频黄在线 | 91视频88av | 麻花豆传媒一二三产区 | 天堂在线免费视频 | 九热精品| 天天夜夜狠狠操 | 亚洲精品男人天堂 | 一区二区视频在线看 | 黄网站免费大全入口 | 国产精品免费观看国产网曝瓜 | 国产三级视频在线 | 成人一级片免费看 | 亚洲成人精品在线 | 国产在线观看午夜 | 国产精品一区二区久久精品爱涩 | 成人精品国产 | 亚洲日本一区二区在线 | 久久电影中文字幕视频 | 欧美精品日韩 | 成人 国产 在线 | 日韩毛片在线免费观看 | 99精品国产免费久久久久久下载 | www.久久久.com | 日韩免费播放 | 国产人成一区二区三区影院 | 在线免费日韩 | 日韩精品不卡在线观看 | 91精品国产一区二区三区 | 久久国产精品电影 | 午夜国产福利视频 | 九九热免费在线观看 | 国产伦精品一区二区三区在线 | 国产精品99免费看 | 成人国产精品一区 | 国产无遮挡又黄又爽在线观看 | 国产精品一区二区av影院萌芽 | 久久精品导航 | 日日夜精品 | 亚洲国产精品久久久久 | 久久久久国产一区二区三区 | 97精品国产一二三产区 | 久草在线久草在线2 | 午夜性生活片 | 亚洲 欧美 精品 | 亚洲欧洲久久久 | 97碰在线 | 午夜成人影视 | 国产亚洲精品久久久久动 | 日本韩国精品一区二区在线观看 | 欧美精品二 | 亚洲电影一区二区 | 99热精品视 | 国产精品乱码一区二三区 | 欧美精品一区在线发布 | av在线a| 中文字幕亚洲综合久久五月天色无吗'' | 日韩一区二区三区高清免费看看 | 久久精品亚洲综合专区 | 91久久偷偷做嫩草影院 | 久草在线资源网 | 成片人卡1卡2卡3手机免费看 | 精品一区二区影视 | 久久免费公开视频 | 国内精品在线观看视频 | 免费能看的av | 人人看人人做人人澡 | 久久黄页| 国产美女精品 | 国产亚洲成人精品 | 久草在线观看视频免费 | 看片黄网站| 超碰人人99 | 日日干美女 | 日韩综合视频在线观看 | 欧美日韩一区二区三区视频 | 黄色av一区二区 | 国产精品va最新国产精品视频 | 久久精品这里精品 | 国产精品99精品 | 青青草国产精品 | 91精品免费 | 国产女人免费看a级丨片 | 日韩视频一区二区三区在线播放免费观看 | 日韩欧美国产激情在线播放 | 中文字幕视频一区二区 | 国产麻豆剧传媒免费观看 | 日韩1级片 | 色婷五月天 | 91九色国产在线 | 夜夜婷婷 | www.五月婷婷 | 成人av直播 | 成人性生交大片免费观看网站 | 在线观看完整版免费 | 一区二区三区中文字幕在线观看 | 国产视频美女 | 国产精品尤物 | 中文字幕在线影视资源 | 久久超碰免费 | 91视频高清免费 | 狠狠干婷婷色 | 精品福利视频在线观看 | 日韩欧美精品在线 | 9在线观看免费高清完整 | 韩国精品一区二区三区六区色诱 | 91麻豆免费视频 | 日韩欧美在线高清 | www.夜色321.com | 日韩精品不卡 | 麻豆91小视频 | 欧美日韩另类在线观看 | 久久免费国产电影 | 九九热在线视频 | 一级欧美日韩 | 国产免费专区 | 日韩精品欧美专区 | 日韩综合一区二区 | 午夜狠狠干 | 99热999| 日韩视频免费观看高清 | 日韩色爱 | 日本精品在线 | 亚洲成人精品在线观看 | 婷婷色站 | 国产亚洲精品久久久久久久久久久久 | 69av视频在线观看 | 日本精品视频在线观看 | 久久精品成人欧美大片古装 | 欧美乱码精品一区二区 | 天堂在线视频中文网 | 久久久官网 | 国产资源站 | 在线观看日韩精品视频 | 国产999久久久| 亚洲第一色 | 久久久久国产精品一区 | 最新免费av在线 | 99资源网| 911国产| 日韩视频www| 手机av看片 | 久一久久 | 久久国产精品99久久久久 | 国产精品v a免费视频 | 日韩特级片 | 国产精品免费观看久久 | 人人澡人 | 免费福利在线观看 | 精品久久网站 | 一本色道久久精品 | 激情综合啪啪 | 国产专区视频在线观看 | 中文字幕在线观看亚洲 | 精品资源在线 | 三上悠亚一区二区在线观看 | 成全在线视频免费观看 | 一级片免费观看视频 | 久久专区 | 亚洲精品黄色 | 国产成在线观看免费视频 | 国产精品美女久久久免费 | 国产1区在线观看 | 国产精品九九视频 | 国产网站av | 国产97视频 | 亚洲黄色一级电影 | 手机色在线 | 2019免费中文字幕 | 91秒拍国产福利一区 | 久久久精品欧美一区二区免费 | 青青河边草免费观看 | 国产a国产| 久视频在线播放 | 日本中文字幕免费观看 | 久久se视频| 偷拍区另类综合在线 | 天天干天天在线 |