日韩av黄I国产麻豆传媒I国产91av视频在线观看I日韩一区二区三区在线看I美女国产在线I麻豆视频国产在线观看I成人黄色短片

歡迎訪問 生活随笔!

生活随笔

當前位置: 首頁 > 编程资源 > 编程问答 >内容正文

编程问答

【从零开始学习深度学习】34. Pytorch-RNN项目实战:RNN创作歌词案例--使用周杰伦专辑歌词训练模型并创作歌曲【含数据集与源码】

發布時間:2024/1/8 编程问答 92 豆豆

目錄

  • RNN項目實戰使用周杰倫專輯歌詞訓練模型并創作歌曲
  • 1.語言模型數據集預處理
    • 1.1 讀取數據集
    • 1.2 建立字符索引
    • 1.3 時序數據的2種采樣方式
      • 1.3.1 隨機采樣
      • 1.3.2 相鄰采樣
    • 小結
  • 2. 從零實現循環神經網絡并進行訓練預測
    • 2.1 one-hot向量表示
    • 2.2 初始化模型參數
    • 2.3 定義模型
    • 2.4 定義預測函數
    • 2.5 裁剪梯度
    • 2.6 困惑度
    • 2.7 定義模型訓練函數
    • 2.8 訓練模型并創作歌詞
    • 小結
  • 3. 基于Pytorch-RNN進行訓練預測
    • 3.1 定義模型
    • 3.2 訓練模型
    • 小結

RNN項目實戰使用周杰倫專輯歌詞訓練模型并創作歌曲

本文將介紹如何預處理一個語言模型數據集,并將其轉換成字符級循環神經網絡所需要的輸入格式。然后通過循環神經網絡RNN進行模型訓練,然后使用訓練好的模型創作歌曲。

語言模型數據集采用的是我最喜歡的歌手周杰倫第一張專輯《Jay》到第十張專輯《跨時代》中的所有歌詞,下面來開始我們的項目吧。

1.語言模型數據集預處理

1.1 讀取數據集

首先讀取這個周杰倫專輯歌詞的數據集,并顯示前100個字符。

import torch import random import zipfilewith zipfile.ZipFile('./RNN-JayZhou/jaychou_lyrics.txt.zip' as zin:with zin.open('jaychou_lyrics.txt') as f:corpus_chars = f.read().decode('utf-8') corpus_chars[:100]

輸出:

'想要有直升機\n想要和你飛到宇宙去\n想要和你融化在一起\n融化在宇宙里\n我每天每天每天在想想想想著你\n這樣的甜蜜\n讓我開始鄉相信命運\n感謝地心引力\n讓我碰到你\n漂亮的讓我面紅的可愛女人\n溫柔的讓我心疼的可'

這個數據集共有6萬多個字符。為了打印方便,我們把換行符替換成空格。為了節省模型計算時間,后續僅使用前1萬個字符來訓練模型。

corpus_chars = corpus_chars.replace('\n', ' ').replace('\r', ' ') corpus_chars = corpus_chars[0:10000] #取前10000個字符進行后續模型訓練

1.2 建立字符索引

我們將每個字符映射成一個從0開始的連續整數,又稱索引,來方便之后的數據處理。為了得到索引,我們將數據集里所有不同字符取出來,然后將其逐一映射到索引來構造詞典。詞典中不同字符的個數vocab_size稱為詞典大小。

idx_to_char = list(set(corpus_chars)) char_to_idx = dict([(char, i) for i, char in enumerate(idx_to_char)]) vocab_size = len(char_to_idx) vocab_size # 1027

之后,將訓練數據集中每個字符轉化為索引,并打印前20個字符及其對應的索引。

corpus_indices = [char_to_idx[char] for char in corpus_chars] sample = corpus_indices[:20] print('chars:', ''.join([idx_to_char[idx] for idx in sample])) print('indices:', sample)

輸出:

chars: 想要有直升機 想要和你飛到宇宙去 想要和 indices: [250, 164, 576, 421, 674, 653, 357, 250, 164, 850, 217, 910, 1012, 261, 275, 366, 357, 250, 164, 850]

我們定義一個函數load_data_jay_lyrics,返回corpus_indices【數據集字符對應的索引】、char_to_idx【詞典不同字符對應索引】、idx_to_char【詞典索引對應不同字符】和vocab_size【數據集不同字符數量】這4個變量。后續直接調用這個函數來獲取數據集對應的這4個變量。

def load_data_jay_lyrics(path):# path為數據集jaychou_lyrics.txt.zip路徑"""加載周杰倫歌詞數據集"""with zipfile.ZipFile(path) as zin:with zin.open('jaychou_lyrics.txt') as f:corpus_chars = f.read().decode('utf-8')corpus_chars = corpus_chars.replace('\n', ' ').replace('\r', ' ')corpus_chars = corpus_chars[0:10000]idx_to_char = list(set(corpus_chars))char_to_idx = dict([(char, i) for i, char in enumerate(idx_to_char)])vocab_size = len(char_to_idx)corpus_indices = [char_to_idx[char] for char in corpus_chars]return corpus_indices, char_to_idx, idx_to_char, vocab_size

1.3 時序數據的2種采樣方式

在訓練中我們需要每次隨機讀取小批量樣本和標簽,時序數據的一個樣本通常包含連續的字符。假設時間步數為5,樣本序列為5個字符,即“想”“要”“有”“直”“升”。該樣本的標簽序列為這些字符分別在訓練集中的下一個字符,即“要”“有”“直”“升”“機”。表示如下:

樣本序列1:“想”“要”“有”“直”“升” ----> 標簽序列:“要”“有”“直”“升”“機”

對于時序數據采樣方式通常有兩種:隨機采樣和相鄰采樣。下面分別介紹這兩種采樣方式。

我們有兩種方式對時序數據進行采樣,分別是隨機采樣和相鄰采樣。

1.3.1 隨機采樣

下面的代碼每次從數據里隨機采樣一個小批量。其中批量大小batch_size指每個小批量的樣本數,num_steps為每個樣本所包含的時間步數。
在隨機采樣中,每個樣本是原始序列上任意截取的一段序列。相鄰的兩個隨機小批量在原始序列上的位置不一定相毗鄰。因此,我們無法用一個小批量最終時間步的隱藏狀態來初始化下一個小批量的隱藏狀態。在訓練模型時,每次隨機采樣前都需要重新初始化隱藏狀態

def data_iter_random(corpus_indices, batch_size, num_steps, device=None):# 減1是因為輸出的索引是相應輸入的索引加1num_examples = (len(corpus_indices) - 1) // num_steps #樣本數epoch_size = num_examples // batch_size # epoch數example_indices = list(range(num_examples)) random.shuffle(example_indices)# 返回從pos開始的長為num_steps的序列def _data(pos):return corpus_indices[pos: pos + num_steps]if device is None:device = torch.device('cuda' if torch.cuda.is_available() else 'cpu')for i in range(epoch_size):# 每次讀取batch_size個隨機樣本i = i * batch_sizebatch_indices = example_indices[i: i + batch_size]X = [_data(j * num_steps) for j in batch_indices]Y = [_data(j * num_steps + 1) for j in batch_indices]yield torch.tensor(X, dtype=torch.float32, device=device), torch.tensor(Y, dtype=torch.float32, device=device)

讓我們輸入一個從0到29的連續整數的人工序列。設批量大小和時間步數分別為2和6。打印隨機采樣每次讀取的小批量樣本的輸入X和標簽Y。可見,相鄰的兩個隨機小批量在原始序列上的位置不一定相毗鄰。

my_seq = list(range(30)) for X, Y in data_iter_random(my_seq, batch_size=2, num_steps=6):print('X: ', X, '\nY:', Y, '\n')

輸出:

X: tensor([[18., 19., 20., 21., 22., 23.],[12., 13., 14., 15., 16., 17.]]) Y: tensor([[19., 20., 21., 22., 23., 24.],[13., 14., 15., 16., 17., 18.]]) X: tensor([[ 0., 1., 2., 3., 4., 5.],[ 6., 7., 8., 9., 10., 11.]]) Y: tensor([[ 1., 2., 3., 4., 5., 6.],[ 7., 8., 9., 10., 11., 12.]])

1.3.2 相鄰采樣

相鄰采樣指相鄰的兩個隨機小批量在原始序列上的位置相毗鄰。這時候,我們就可以用一個小批量最終時間步的隱藏狀態來初始化下一個小批量的隱藏狀態,從而使下一個小批量的輸出也取決于當前小批量的輸入,并如此循環下去

這種方式對實現循環神經網絡有兩方面影響:

一方面,在訓練模型時,我們只需在每一個迭代周期開始時初始化隱藏狀態;

另一方面,當多個相鄰小批量通過傳遞隱藏狀態串聯起來時,模型參數的梯度計算將依賴所有串聯起來的小批量序列。同一迭代周期中,隨著迭代次數的增加,梯度的計算開銷會越來越大。
為了使模型參數的梯度計算只依賴一次迭代讀取的小批量序列,我們可以在每次讀取小批量前將隱藏狀態從計算圖中分離出來。

def data_iter_consecutive(corpus_indices, batch_size, num_steps, device=None):if device is None:device = torch.device('cuda' if torch.cuda.is_available() else 'cpu')corpus_indices = torch.tensor(corpus_indices, dtype=torch.float32, device=device)data_len = len(corpus_indices)batch_len = data_len // batch_sizeindices = corpus_indices[0: batch_size*batch_len].view(batch_size, batch_len)epoch_size = (batch_len - 1) // num_stepsfor i in range(epoch_size):i = i * num_stepsX = indices[:, i: i + num_steps]Y = indices[:, i + 1: i + num_steps + 1]yield X, Y

同樣的設置下,打印相鄰采樣每次讀取的小批量樣本的輸入X和標簽Y。相鄰的兩個隨機小批量在原始序列上的位置相毗鄰。

for X, Y in data_iter_consecutive(my_seq, batch_size=2, num_steps=6):print('X: ', X, '\nY:', Y, '\n')

輸出:

X: tensor([[ 0., 1., 2., 3., 4., 5.],[15., 16., 17., 18., 19., 20.]]) Y: tensor([[ 1., 2., 3., 4., 5., 6.],[16., 17., 18., 19., 20., 21.]]) X: tensor([[ 6., 7., 8., 9., 10., 11.],[21., 22., 23., 24., 25., 26.]]) Y: tensor([[ 7., 8., 9., 10., 11., 12.],[22., 23., 24., 25., 26., 27.]])

小結

  • 時序數據采樣方式包括隨機采樣和相鄰采樣。使用這兩種方式的循環神經網絡訓練在實現上略有不同。

2. 從零實現循環神經網絡并進行訓練預測

在本節中,我們將從零開始實現一個基于字符級循環神經網絡的語言模型,并在周杰倫專輯歌詞數據集上訓練一個模型來進行歌詞創作。首先,我們讀取周杰倫專輯歌詞數據集:

import time import math import numpy as np import torch from torch import nn, optim import torch.nn.functional as Fimport sys import d2lzh_pytorch as d2l device = torch.device('cuda' if torch.cuda.is_available() else 'cpu')(corpus_indices, char_to_idx, idx_to_char, vocab_size) = load_data_jay_lyrics('./RNN-JayZhou/jaychou_lyrics.txt.zip')

2.1 one-hot向量表示

為了將詞表示成向量輸入到神經網絡,一個簡單的辦法是使用one-hot向量。假設詞典中不同字符的數量為 N N N(即詞典大小vocab_size),每個字符已經同一個從0到 N ? 1 N-1 N?1的連續整數值索引一一對應。如果一個字符的索引是整數 i i i, 那么我們創建一個全0的長為 N N N的向量,并將其位置為 i i i的元素設成1。該向量就是對原字符的one-hot向量表示。

我們每次采樣的小批量的形狀是(批量大小, 時間步數)。下面的函數to_onehot將這樣的小批量變換成數個可以輸入進網絡的形狀為(批量大小, 詞典大小)的矩陣,矩陣個數等于時間步數。也就是說,時間步 t t t的輸入為 X t ∈ R n × d \boldsymbol{X}_t \in \mathbb{R}^{n \times d} Xt?Rn×d,其中 n n n為批量大小, d d d為輸入個數,即one-hot向量長度(詞典大小)。

def one_hot(x, n_class, dtype=torch.float32): # X shape: (batch), output shape: (batch, n_class)x = x.long()res = torch.zeros(x.shape[0], n_class, dtype=dtype, device=x.device)res.scatter_(1, x.view(-1, 1), 1)return resdef to_onehot(X, n_class): # X shape: (batch, seq_len), output: seq_len elements of (batch, n_class)return [one_hot(X[:, i], n_class) for i in range(X.shape[1])]X = torch.arange(10).view(2, 5) inputs = to_onehot(X, vocab_size) print(len(inputs), inputs[0].shape)

輸出:

5 torch.Size([2, 1027])

2.2 初始化模型參數

初始化模型參數,隱藏單元個數 num_hiddens是一個超參數。

num_inputs, num_hiddens, num_outputs = vocab_size, 256, vocab_size print('will use', device)def get_params():def _one(shape):# 初始化參數的函數,正態分布ts = torch.tensor(np.random.normal(0, 0.01, size=shape), device=device, dtype=torch.float32)return torch.nn.Parameter(ts, requires_grad=True)# 隱藏層參數W_xh = _one((num_inputs, num_hiddens))W_hh = _one((num_hiddens, num_hiddens))b_h = torch.nn.Parameter(torch.zeros(num_hiddens, device=device, requires_grad=True))# 輸出層參數W_hq = _one((num_hiddens, num_outputs))b_q = torch.nn.Parameter(torch.zeros(num_outputs, device=device, requires_grad=True))return nn.ParameterList([W_xh, W_hh, b_h, W_hq, b_q])

2.3 定義模型

根據循環神經網絡的計算表達式實現該模型。首先定義init_rnn_state函數來返回初始化的隱藏狀態。它返回由一個形狀為(批量大小, 隱藏單元個數)的值為0的NDArray組成的元組。使用元組是為了更便于處理隱藏狀態含有多個NDArray的情況。

def init_rnn_state(batch_size, num_hiddens, device):# 返回初始化的隱藏狀態,形狀:(批量大小, 隱藏單元個數)return (torch.zeros((batch_size, num_hiddens), device=device), )

下面的rnn函數定義了在一個時間步里如何計算隱藏狀態和輸出。這里的激活函數使用了tanh函數。當元素在實數域上均勻分布時,tanh函數值的均值為0。

def rnn(inputs, state, params):# inputs和outputs皆為num_steps個形狀為(batch_size, vocab_size)的矩陣# state為初始的隱藏狀態W_xh, W_hh, b_h, W_hq, b_q = paramsH, = stateoutputs = []for X in inputs:# 計算隱藏狀態HH = torch.tanh(torch.matmul(X, W_xh) + torch.matmul(H, W_hh) + b_h)# 計算輸出Y = torch.matmul(H, W_hq) + b_qoutputs.append(Y)return outputs, (H,)

做個簡單的測試來觀察輸出結果的個數(時間步數),以及第一個時間步的輸出層輸出的形狀和隱藏狀態的形狀。

# state初始隱藏狀態,形狀:(批量大小, 隱藏單元個數) state = init_rnn_state(X.shape[0], num_hiddens, device) # 輸入one_hot形式 inputs = to_onehot(X.to(device), vocab_size) # 獲取各層參數 params = get_params() # 輸出:outputs,state_new新的隱藏狀態 outputs, state_new = rnn(inputs, state, params) print(len(outputs), outputs[0].shape, state_new[0].shape)

輸出:

5 torch.Size([2, 1027]) torch.Size([2, 256])

2.4 定義預測函數

以下函數基于前綴prefix(含有數個字符的字符串)來預測接下來的num_chars個字符。

def predict_rnn(prefix, num_chars, rnn, params, init_rnn_state,num_hiddens, vocab_size, device, idx_to_char, char_to_idx):state = init_rnn_state(1, num_hiddens, device)output = [char_to_idx[prefix[0]]]for t in range(num_chars + len(prefix) - 1):# 將上一時間步的輸出作為當前時間步的輸入X = to_onehot(torch.tensor([[output[-1]]], device=device), vocab_size)# 計算輸出和更新隱藏狀態(Y, state) = rnn(X, state, params)# 下一個時間步的輸入是prefix里的字符或者當前的最佳預測字符if t < len(prefix) - 1:output.append(char_to_idx[prefix[t + 1]])else:# 輸出中最大的一個值對應的索引output.append(int(Y[0].argmax(dim=1).item()))return ''.join([idx_to_char[i] for i in output])

我們先測試一下predict_rnn函數。我們將根據前綴“分開”創作長度為10個字符(不考慮前綴長度)的一段歌詞。因為模型參數為隨機值,所以預測結果也是隨機的。

predict_rnn('分開', 10, rnn, params, init_rnn_state, num_hiddens, vocab_size,device, idx_to_char, char_to_idx)

輸出:

'分開西圈緒升王凝瓜必客映'

2.5 裁剪梯度

循環神經網絡中較容易出現梯度衰減或梯度爆炸。為了應對梯度爆炸,可以裁剪梯度(clip gradient)。假設我們把所有模型參數梯度的元素拼接成一個向量 g \boldsymbol{g} g,并設裁剪的閾值是 θ \theta θ。裁剪后的梯度

min ? ( θ ∥ g ∥ , 1 ) g \min\left(\frac{\theta}{\|\boldsymbol{g}\|}, 1\right)\boldsymbol{g} min(gθ?,1)g

L 2 L_2 L2?范數不超過 θ \theta θ

def grad_clipping(params, theta, device):norm = torch.tensor([0.0], device=device)for param in params:norm += (param.grad.data ** 2).sum()norm = norm.sqrt().item()if norm > theta:for param in params:param.grad.data *= (theta / norm)

2.6 困惑度

我們通常使用困惑度(perplexity)來評價語言模型的好壞。困惑度是對交叉熵損失函數做指數運算后得到的值。特別地,

  • 最佳情況下,模型總是把標簽類別的概率預測為1,此時困惑度為1;
  • 最壞情況下,模型總是把標簽類別的概率預測為0,此時困惑度為正無窮;
  • 基線情況下,模型總是預測所有類別的概率都相同,此時困惑度為類別個數。

顯然,任何一個有效模型的困惑度必須小于類別個數。在本例中,困惑度必須小于詞典大小vocab_size。

2.7 定義模型訓練函數

與之前CNN模型訓練函數相比,這里的模型訓練函數有以下幾點不同:

  • 使用困惑度評價模型。
  • 在迭代模型參數前裁剪梯度。
  • 對時序數據采用不同采樣方法將導致隱藏狀態初始化的不同。
  • 定義模型

    def train_and_predict_rnn(rnn, get_params, init_rnn_state, num_hiddens,vocab_size, device, corpus_indices, idx_to_char,char_to_idx, is_random_iter, num_epochs, num_steps,lr, clipping_theta, batch_size, pred_period,pred_len, prefixes):```num_epochs:迭代的周期數num_steps:每個樣本所包含的時間步數batch_size:批大小pred_period:在本函數中用于控制pred_period個迭代周期打印一次預測結果pred_len:預測的字符數prefixes:預測前綴,依據該前綴進行預測```if is_random_iter:# 是否是隨機采樣還是相鄰采樣data_iter_fn = d2l.data_iter_randomelse:data_iter_fn = d2l.data_iter_consecutiveparams = get_params()loss = nn.CrossEntropyLoss()for epoch in range(num_epochs):# is_random_iter:True表示隨機采樣,False表示相鄰采樣if not is_random_iter: # 如使用相鄰采樣,在epoch開始時初始化隱藏狀態state = init_rnn_state(batch_size, num_hiddens, device)l_sum, n, start = 0.0, 0, time.time()data_iter = data_iter_fn(corpus_indices, batch_size, num_steps, device)for X, Y in data_iter:if is_random_iter: # 如使用隨機采樣,在每個小批量更新前初始化隱藏狀態state = init_rnn_state(batch_size, num_hiddens, device)else: # 否則需要使用detach函數從計算圖分離隱藏狀態, 這是為了# 使模型參數的梯度計算只依賴一次迭代讀取的小批量序列(防止梯度計算開銷太大)for s in state:s.detach_()inputs = to_onehot(X, vocab_size)# outputs有num_steps個形狀為(batch_size, vocab_size)的矩陣(outputs, state) = rnn(inputs, state, params)# 拼接之后形狀為(num_steps * batch_size, vocab_size)outputs = torch.cat(outputs, dim=0)# Y的形狀是(batch_size, num_steps),轉置后再變成長度為# batch_size * num_steps 的向量,這樣跟輸出的行一一對應y = torch.transpose(Y, 0, 1).contiguous().view(-1)# 使用交叉熵損失計算平均分類誤差l = loss(outputs, y.long())# 梯度清0if params[0].grad is not None:for param in params:param.grad.data.zero_()l.backward()grad_clipping(params, clipping_theta, device) # 裁剪梯度d2l.sgd(params, lr, 1) # 因為誤差已經取過均值,梯度不用再做平均l_sum += l.item() * y.shape[0]n += y.shape[0]if (epoch + 1) % pred_period == 0:print('epoch %d, perplexity %f, time %.2f sec' % (epoch + 1, math.exp(l_sum / n), time.time() - start))for prefix in prefixes:print(' -', predict_rnn(prefix, pred_len, rnn, params, init_rnn_state,num_hiddens, vocab_size, device, idx_to_char, char_to_idx))

    2.8 訓練模型并創作歌詞

    現在我們可以訓練模型了。首先,設置模型超參數。我們將根據前綴“分開”和“不分開”分別創作長度為50個字符(不考慮前綴長度)的一段歌詞。我們每過50個迭代周期便根據當前訓練的模型創作一段歌詞。

    num_epochs, num_steps, batch_size, lr, clipping_theta = 250, 35, 32, 1e2, 1e-2 pred_period, pred_len, prefixes = 50, 50, ['分開', '不分開']

    下面采用隨機采樣訓練模型并創作歌詞。

    train_and_predict_rnn(rnn, get_params, init_rnn_state, num_hiddens,vocab_size, device, corpus_indices, idx_to_char,char_to_idx, True, num_epochs, num_steps, lr,clipping_theta, batch_size, pred_period, pred_len,prefixes)

    輸出:

    epoch 50, perplexity 69.127998, time 1.30 sec- 分開 我不要再想 我不要再想 我不要再想 我不要再想 我不要再想 我不要再想 我不要再想 我不要再想 我- 不分開 我想要你的你 一知哈覺 我已了這 你我不能 你怎么 別怪我 我不要 一沉我 一子就 一直我 一子 epoch 100, perplexity 10.106804, time 1.39 sec- 分開 一只用雙留 誰人它 一皮箱 一顆四有 在人憶 的片段 有 是對舊 快顆都顆 全小村空 在人海中 你- 不分開嗎 我后好這生 我不能再想 我不 我不 我不 我不 我不 我不 我不 我不 我不 我不 我不 我不 epoch 150, perplexity 2.871314, time 1.30 sec- 分開 一直在停留 誰讓它停留的 為什么我女朋友場外加油 你卻還讓我出糗 可小睡耳濡目染 什么刀槍跟棍棒 - 不分開嗎 我不能再想你 不知都覺 你已經離開我 不知不覺 我跟了這節奏 后知后覺 又過了雙截棍 哼哼哈兮 epoch 200, perplexity 1.543714, time 1.46 sec- 分開 有直在對醫 有思寄人牛 三里什么奇怪的事都有 包括像貓的狗 印地安老斑鳩 平常話不多 除非是烏鴉搶- 不分開掃 然后將過去 慢慢溫習 讓我愛上你 那場悲劇 是你完美演出的一場戲 寧愿心碎哭泣 再狠狠不記 你非 epoch 250, perplexity 1.298522, time 1.60 sec- 分開 有雙去不 你作常怎球出的手尾椅 用括像貓前年的誓言 紀錄又一只遇見的你 Jay Chou 如果- 不分開期把的胖女巫 用拉丁文念咒語啦啦嗚 她養的黑貓笑起來像哭 啦啦啦嗚 在時內懸 我不懂 我不走 裝壺就

    接下來采用相鄰采樣訓練模型并創作歌詞。

    train_and_predict_rnn(rnn, get_params, init_rnn_state, num_hiddens,vocab_size, device, corpus_indices, idx_to_char,char_to_idx, False, num_epochs, num_steps, lr,clipping_theta, batch_size, pred_period, pred_len,prefixes)

    輸出:

    epoch 50, perplexity 59.174035, time 1.30 sec- 分開 我想要這愛 我不要再不 我不要再不 我不要再想 我不要再不 我不要再想 我不要再不 我不要再想 我- 不分開你 你想我有你的讓我 你不我有你不著你的手不女 我愛你的愛寫 一哼哈兮 快使用雙截棍 一直哈兮 快使 epoch 100, perplexity 6.633354, time 1.35 sec- 分開 我說的這樣 你一在熱抽 仙蝪什么羞 仙人什么走 三人掌么走 三人什么走 三人什么走 三人什么走 三- 不分開柳 你是那過了 我兩就開 我有懂不么我有你的惱言 我有你再是 有人銀夠不夠 景色入秋 漫使用雙截棍 epoch 150, perplexity 1.969446, time 1.31 sec- 分開 我說的讓我每去 卻發現跟了當 快使用雙截棍 哼哼哈兮 快使用雙截棍 哼哼哈兮 快果我有輕功 飛檐走- 不分開覺 你已經過了我 不知不覺 我跟了這節奏 后知后覺 又過了一個秋 后知后覺 我該好好生活 我該好好生 epoch 200, perplexity 1.292166, time 1.29 sec- 分開 問候的人我 上的完美 我的完不面 但沒在美主 我被它拖煩 靜有悄煩快著 快使溫籃 說你得動防 - 不分開覺 你已經離開我 不知不覺 我跟了這節奏 后知后覺 又過了一個秋 后知后覺 我該好好生活 我該好好生 epoch 250, perplexity 1.181980, time 1.33 sec- 分開 問候的讓我面紅的可愛就人風榜你 可知前 語給兩步三步四步望著天 看星星 一顆兩顆三顆四顆 連成線背- 不分開覺 你已經離開我 不知不覺 我跟了這節奏 后知后覺 又過了一個秋 后知后覺 我該好好生活 我該好好生

    小結

    • 可以用基于字符級循環神經網絡的語言模型來生成文本序列,例如創作歌詞。
    • 當訓練循環神經網絡時,為了應對梯度爆炸,可以裁剪梯度。
    • 困惑度是對交叉熵損失函數做指數運算后得到的值。

    3. 基于Pytorch-RNN進行訓練預測

    使用PyTorch可以更簡潔地實現基于循環神經網絡的語言模型。首先,我們讀取周杰倫專輯歌詞數據集。

    import time import math import numpy as np import torch from torch import nn, optim import torch.nn.functional as Fimport sys import d2lzh_pytorch as d2l device = torch.device('cuda' if torch.cuda.is_available() else 'cpu')(corpus_indices, char_to_idx, idx_to_char, vocab_size) = load_data_jay_lyrics('./RNN-JayZhou/jaychou_lyrics.txt.zip')

    3.1 定義模型

    PyTorch中的nn模塊提供了循環神經網絡的實現。下面構造一個含單隱藏層、隱藏單元個數為256的循環神經網絡層rnn_layer。

    num_hiddens = 256 # rnn_layer = nn.LSTM(input_size=vocab_size, hidden_size=num_hiddens) rnn_layer = nn.RNN(input_size=vocab_size, hidden_size=num_hiddens)

    與上一節中實現的循環神經網絡不同,這里rnn_layer的輸入形狀為(時間步數, 批量大小, 輸入個數)。其中輸入個數即one-hot向量長度(詞典大小)。此外,rnn_layer作為nn.RNN實例,在前向計算后會分別返回輸出和隱藏狀態h,其中輸出指的是隱藏層在各個時間步上計算并輸出的隱藏狀態,它們通常作為后續輸出層的輸入。需要強調的是,該“輸出”本身并不涉及輸出層計算,形狀為(時間步數, 批量大小, 隱藏單元個數)。而nn.RNN實例在前向計算返回的隱藏狀態指的是隱藏層在最后時間步的隱藏狀態:當隱藏層有多層時,每一層的隱藏狀態都會記錄在該變量中;對于像長短期記憶(LSTM),隱藏狀態是一個元組(h, c),即hidden state和cell state。后續會介紹長短期記憶和深度循環神經網絡。關于循環神經網絡(以LSTM為例)的輸出,可以參考下圖。

    舉個例子:輸出形狀為(時間步數, 批量大小, 隱藏單元個數),隱藏狀態h的形狀為(層數, 批量大小, 隱藏單元個數)。

    num_steps = 35 batch_size = 2 state = None X = torch.rand(num_steps, batch_size, vocab_size) Y, state_new = rnn_layer(X, state) print(Y.shape, len(state_new), state_new[0].shape)

    輸出:

    torch.Size([35, 2, 256]) 1 torch.Size([2, 256])

    接下來我們繼承Module類來定義一個完整的循環神經網絡。它首先將輸入數據使用one-hot向量表示后輸入到rnn_layer中,然后使用全連接輸出層得到輸出。輸出個數等于詞典大小vocab_size。

    class RNNModel(nn.Module):def __init__(self, rnn_layer, vocab_size):super(RNNModel, self).__init__()self.rnn = rnn_layer# rnn_layer.bidirectional,如果是雙向循環網絡則為2,單向則為1self.hidden_size = rnn_layer.hidden_size * (2 if rnn_layer.bidirectional else 1) self.vocab_size = vocab_sizeself.dense = nn.Linear(self.hidden_size, vocab_size)self.state = Nonedef forward(self, inputs, state): # inputs: (batch, seq_len)# 獲取one-hot向量表示X = d2l.to_onehot(inputs, self.vocab_size) # X是個listY, self.state = self.rnn(torch.stack(X), state)# 全連接層會首先將Y的形狀變成(num_steps * batch_size, num_hiddens),它的輸出# 形狀為(num_steps * batch_size, vocab_size)output = self.dense(Y.view(-1, Y.shape[-1]))return output, self.state

    3.2 訓練模型

    定義預測函數。這里的實現與第二節中的區別在于前向計算和初始化隱藏狀態的函數接口。

    def predict_rnn_pytorch(prefix, num_chars, model, vocab_size, device, idx_to_char,char_to_idx):state = Noneoutput = [char_to_idx[prefix[0]]] # output會記錄prefix加上輸出for t in range(num_chars + len(prefix) - 1):X = torch.tensor([output[-1]], device=device).view(1, 1)if state is not None:if isinstance(state, tuple): # LSTM, state:(h, c) state = (state[0].to(device), state[1].to(device))else: state = state.to(device)(Y, state) = model(X, state)if t < len(prefix) - 1:output.append(char_to_idx[prefix[t + 1]])else:output.append(int(Y.argmax(dim=1).item()))return ''.join([idx_to_char[i] for i in output])

    讓我們使用權重為隨機值的模型來預測一次。

    model = RNNModel(rnn_layer, vocab_size).to(device) predict_rnn_pytorch('分開', 10, model, vocab_size, device, idx_to_char, char_to_idx)

    輸出:

    '分開戲想暖迎涼想征涼征征'

    實現訓練函數,這里只使用相鄰采樣來讀取數據。

    def train_and_predict_rnn_pytorch(model, num_hiddens, vocab_size, device,corpus_indices, idx_to_char, char_to_idx,num_epochs, num_steps, lr, clipping_theta,batch_size, pred_period, pred_len, prefixes):loss = nn.CrossEntropyLoss()optimizer = torch.optim.Adam(model.parameters(), lr=lr)model.to(device)state = Nonefor epoch in range(num_epochs):l_sum, n, start = 0.0, 0, time.time()data_iter = d2l.data_iter_consecutive(corpus_indices, batch_size, num_steps, device) # 相鄰采樣for X, Y in data_iter:if state is not None:# 使用detach函數從計算圖分離隱藏狀態, 這是為了# 使模型參數的梯度計算只依賴一次迭代讀取的小批量序列(防止梯度計算開銷太大)if isinstance (state, tuple): # LSTM, state:(h, c) state = (state[0].detach(), state[1].detach())else: state = state.detach()(output, state) = model(X, state) # output: 形狀為(num_steps * batch_size, vocab_size)# Y的形狀是(batch_size, num_steps),轉置后再變成長度為# batch_size * num_steps 的向量,這樣跟輸出的行一一對應y = torch.transpose(Y, 0, 1).contiguous().view(-1)# y.long()表示向下取整 l = loss(output, y.long())'''y = torch.transpose(Y, 0, 1).contiguous().view(-1)作用Y = tensor([[ 7., 8., 9., 10., 11., 12.],[22., 23., 24., 25., 26., 27.]])則y = torch.transpose(Y, 0, 1).contiguous().view(-1)結果為:tensor([ 7., 22., 8., 23., 9., 24., 10., 25., 11., 26., 12., 27.])'''optimizer.zero_grad()l.backward()# 梯度裁剪d2l.grad_clipping(model.parameters(), clipping_theta, device)optimizer.step()l_sum += l.item() * y.shape[0]n += y.shape[0]try:perplexity = math.exp(l_sum / n)except OverflowError:perplexity = float('inf')if (epoch + 1) % pred_period == 0:print('epoch %d, perplexity %f, time %.2f sec' % (epoch + 1, perplexity, time.time() - start))for prefix in prefixes:print(' -', predict_rnn_pytorch(prefix, pred_len, model, vocab_size, device, idx_to_char,char_to_idx))

    使用和2.8中一樣的超參數(除了學習率)來訓練模型。

    num_epochs, batch_size, lr, clipping_theta = 250, 32, 1e-3, 1e-2 # 注意這里的學習率設置 pred_period, pred_len, prefixes = 50, 50, ['分開', '不分開'] train_and_predict_rnn_pytorch(model, num_hiddens, vocab_size, device,corpus_indices, idx_to_char, char_to_idx,num_epochs, num_steps, lr, clipping_theta,batch_size, pred_period, pred_len, prefixes)

    輸出:

    epoch 50, perplexity 7.681733, time 0.40 sec- 分開 我想了這樣牽 不的 我 你的一場 我 你的那里 我想要你的微笑 我想要你的微笑 我想要你的微笑 我- 不分開不 我不開始不 不要再想要你 一場去 后知后覺 我想你這樣牽著你的手不放人 你是你人我 別不能再 epoch 100, perplexity 1.258844, time 0.46 sec- 分開 我跟了這節奏 后知后覺 又過了一個秋 后知后覺 我該好好生活 我該好好生活 不知不覺 你已經離開我- 不分開不你是我不懂 想你怎么面對我 甩開球我滿腔的怒火 我想揍你已經很久 別想躲 說你眼睛看著我 別發抖 epoch 150, perplexity 1.064266, time 0.46 sec- 分開 我跟再這樣 思要你被你都我的錯 愛知走 杵在伊斯坦堡 卻只想你和漢堡 我想要你的微笑每天都能看- 不分開不 是我的話 穿人的沒躲 說你的 從小到大的片來敗的窩對我的味道 又過了人慢慢 輕知再覺 你已經 epoch 200, perplexity 1.031409, time 0.47 sec- 分開 我過再這樣 想要你 升機我想要和你飛到宇宙去 想要和你融化在一起 融化在宇宙里 我每天每天每天在- 不分開 是從的起 它給的進愛 在的感受 已邊的話過 我不啊 平常話不多 一定會有護三馬到也什么在這樣對 epoch 250, perplexity 1.056751, time 0.46 sec- 分開 我過再這樣 思出你 我知多的熬 難沒 什么 干什么 我被開口吳儂軟語沉默 娘子她依舊每日折一枝- 不分開 了是我不起 我給 這些功 快使用雙截棍 哼哼哈兮 快使用雙截棍 哼哼哈兮 習武之人切記 仁者無敵

    小結

    • PyTorch的nn模塊提供了循環神經網絡層的實現。
    • PyTorch的nn.RNN實例在前向計算后會分別返回輸出和隱藏狀態。該前向計算并不涉及輸出層計算。

    如果內容對你有幫助,感謝點贊+關注哦!

    關注下方GZH:阿旭算法與機器學習,回復:“RNN創作歌詞”即可獲取本文數據集、源碼與項目文檔,歡迎共同學習交流

    總結

    以上是生活随笔為你收集整理的【从零开始学习深度学习】34. Pytorch-RNN项目实战:RNN创作歌词案例--使用周杰伦专辑歌词训练模型并创作歌曲【含数据集与源码】的全部內容,希望文章能夠幫你解決所遇到的問題。

    如果覺得生活随笔網站內容還不錯,歡迎將生活随笔推薦給好友。

    又黄又爽又刺激视频 | 免费av免费观看 | 久草视频2| 麻豆传媒视频观看 | 午夜久久网站 | 麻豆精品传媒视频 | 在线黄av | 精品av在线播放 | 久久视频6| 夜夜骑首页 | 午夜国产一区二区 | 一级免费观看 | 波多野结衣一区二区三区中文字幕 | 天天拍天天色 | 日韩中文字幕免费在线播放 | 日韩二区在线播放 | 国产精品一区在线观看你懂的 | 欧美日韩免费观看一区=区三区 | 91视频在线观看下载 | 菠萝菠萝在线精品视频 | 91亚洲精| 国产黄色一级大片 | 久久久久影视 | 亚洲人毛片 | 在线观看日韩精品 | 蜜臀久久99静品久久久久久 | 一本一本久久a久久精品综合小说 | 久草精品视频 | www麻豆视频 | 久久免费成人网 | 一区二区三区在线影院 | 夜色成人av | 成人在线视频免费 | 亚洲美女精品视频 | 亚洲成人av在线电影 | 99热这里只有精品8 久久综合毛片 | 黄色一区二区在线观看 | 亚洲婷婷综合色高清在线 | www.eeuss影院av撸| 免费a v视频 | 欧美国产91 | 江苏妇搡bbbb搡bbbb | 黄色片毛片 | 久久99久久精品国产 | 日本中文字幕网站 | 99久久精品免费一区 | 日韩城人在线 | 国产精品一区二区免费看 | 狠狠色狠狠色合久久伊人 | 精品在线观看一区二区三区 | 国产精品久久久久久久久久久久久久 | 国产精品久久网 | 麻豆精品在线视频 | 99综合电影在线视频 | 最近2019中文免费高清视频观看www99 | 日韩在线 | 免费特级黄色片 | 免费在线观看国产黄 | 欧美小视频在线观看 | 天天综合人人 | 久久免费福利视频 | 中文字幕国产一区二区 | 九九在线高清精品视频 | 伊人色播 | 182午夜在线观看 | 成av人电影 | 久久久免费精品 | 69人人 | 2019中文字幕第一页 | 久久久久久久久久久久亚洲 | 国产手机在线精品 | 久草久草在线 | 97在线观看视频免费 | 91插插插免费视频 | 精品国产亚洲一区二区麻豆 | 天天天天色射综合 | 成人av在线资源 | 黄色三级免费看 | 国产在线观看你懂得 | 五月婷香蕉久色在线看 | 欧美一区二区三区在线视频观看 | 国产伦精品一区二区三区免费 | 免费看麻豆| a午夜电影 | 9999在线 | 日韩一级黄色片 | 国产麻豆果冻传媒在线观看 | 九九色在线观看 | 久久资源在线 | av片一区 | 国产一区二区三区免费在线观看 | 中文字幕免费久久 | 久久9视频| 久久久人人人 | 亚洲成aⅴ人在线观看 | 日韩在线视频网站 | 国产精品免费一区二区三区在线观看 | 五月天.com| 91插插视频 | 天天干天天色2020 | 日韩欧美高清一区二区三区 | 99热超碰| 992tv在线观看网站 | 99视频偷窥在线精品国自产拍 | 在线免费观看黄色av | 免费av大全 | 国产精品午夜av | 免费看片日韩 | 国产破处在线视频 | 黄av在线 | 亚洲国产剧情av | 444av| 91精品久久久久久综合五月天 | 国产精品福利在线观看 | 美女黄频| 91九色porn在线资源 | 欧美成人h版电影 | 免费午夜视频在线观看 | 日本午夜在线亚洲.国产 | 久久九九影视 | 久久综合中文字幕 | 日韩av线观看 | 夜夜躁狠狠躁日日躁视频黑人 | 在线国产黄色 | www.久久久精品 | 国产精品一区二区在线免费观看 | 黄色高清视频在线观看 | 麻豆视频免费网站 | 在线精品观看国产 | av免费在线网站 | 久久午夜电影院 | 黄色av一区二区三区 | 日韩黄色大片在线观看 | 欧美日韩国产伦理 | 亚洲天天综合网 | 亚洲第一成网站 | 欧美性色网站 | 欧美日韩国产精品一区二区亚洲 | 九九九九色 | 97国产| 91片网| 久久精品视频网站 | 国产一区精品在线 | 精品日本视频 | 亚洲视频中文 | 超碰人人超 | 亚洲精品乱码久久久久久久久久 | 欧洲精品一区二区 | 国产黄在线免费观看 | 国产亚洲欧美一区 | 天天射夜夜爽 | 国内精品久久久 | 在线看成人 | 久久人人爽av | 视频成人免费 | 国产精品亚州 | 国产精品国产三级在线专区 | 中文字幕网站 | 亚洲欧美国产精品久久久久 | 国产精品va在线观看入 | 久久久.com| 91人人视频在线观看 | 99在线观看免费视频精品观看 | 激情五月播播久久久精品 | 亚洲精品视频久久 | 日本系列中文字幕 | 国产成人91 | 一区二区 不卡 | 91黄视频在线 | 中文av一区二区 | 日韩精品在线观看视频 | 成人a毛片 | 日韩在线电影观看 | 97香蕉久久超级碰碰高清版 | 久久久www成人免费毛片麻豆 | 日本久久综合网 | 国产九色91 | aaa免费毛片 | 在线观看免费国产小视频 | 成年人免费在线观看网站 | 一区二区不卡高清 | 日日夜夜国产 | 亚洲精品在线一区二区 | 久久久wwww| 亚洲综合精品在线 | 国产91亚洲 | 精壮的侍卫呻吟h | 国产高清在线免费视频 | 亚洲开心色 | 久久国产精品99久久久久久丝袜 | 国产精品久久久久久吹潮天美传媒 | 香蕉久久久久久久 | 久久69精品| 国产又粗又长又硬免费视频 | 天堂中文在线播放 | 在线看欧美 | 香蕉视频91 | 亚洲精品www久久久久久 | 又大又硬又黄又爽视频在线观看 | 欧美与欧洲交xxxx免费观看 | 人人射人人射 | 国产专区视频 | 三级动态视频在线观看 | 综合久久五月天 | 96视频在线 | 天天操狠狠操网站 | 亚洲色视频 | 最新的av网站 | 国产福利在线免费观看 | 亚洲精品影视在线观看 | 国产福利小视频在线 | 日韩欧美精品一区二区 | 国产精品黄色在线观看 | 久久综合视频网 | 中文在线字幕免 | av在线免费播放 | 国模一区二区三区四区 | 日日日天天天 | 天天色天天上天天操 | 婷婷中文字幕 | 日夜夜精品视频 | 日韩精品一区二区不卡 | 亚洲精品免费在线观看视频 | 毛片二区 | 亚洲精品黄 | 99久久婷婷国产综合亚洲 | 婷婷丁香国产 | 日韩欧美视频免费看 | 亚洲一级片免费观看 | 日本美女xx| 亚洲视频专区在线 | 亚洲码国产日韩欧美高潮在线播放 | 中文字幕传媒 | 波多野结衣久久精品 | 免费网站v | 黄网站色 | 91亚洲欧美| 成人黄色小说网 | 日韩欧美一二三 | 91色影院| 亚洲欧美乱综合图片区小说区 | 亚洲国产精品影院 | 少妇高潮流白浆在线观看 | 高清国产午夜精品久久久久久 | 久久久鲁 | 麻豆影视在线免费观看 | 亚洲 综合 精品 | 国产精品一区二区精品视频免费看 | 亚洲日日射 | 特级毛片在线 | 中文字幕人成不卡一区 | 欧美精品免费视频 | 亚洲综合射| 久久成人麻豆午夜电影 | 成人av网站在线 | 国产一区二区精 | 国产资源av| 青春草免费视频 | 国产人免费人成免费视频 | 日本黄色免费电影网站 | 中文字幕亚洲精品在线观看 | 久草在线综合网 | 免费91麻豆精品国产自产在线观看 | 免费一级特黄录像 | 亚洲国产精品久久久 | 天天色欧美 | av电影在线免费 | 国产美女网 | 在线 国产一区 | 国产黄色免费在线观看 | 亚洲精品国产品国语在线 | 精品一二 | 中文字幕一区二区三区乱码在线 | 99在线视频免费观看 | 狠狠狠干 | www视频在线观看 | 免费看的av片 | 日本中文字幕久久 | 日本在线视频一区二区三区 | 日本公妇在线观看高清 | 成人一级免费电影 | 国产精品久久久999 国产91九色视频 | 狠狠干夜夜爽 | 久久男人影院 | www.久久久com | 成年人在线电影 | 99精品福利 | 久久99国产精品免费 | 免费黄色激情视频 | 久久久色 | 亚洲国产精品一区二区久久,亚洲午夜 | 欧美日韩一区三区 | 成 人 黄 色视频免费播放 | 永久中文字幕 | 亚洲成人动漫在线观看 | 揉bbb玩bbb少妇bbb| 免费看一级特黄a大片 | 国产自产高清不卡 | 国产69精品久久久久99尤 | 国产日韩欧美在线影视 | 国产精品对白一区二区三区 | 亚洲精品在线一区二区三区 | 四虎5151久久欧美毛片 | 中文字幕在线色 | 天天操天天干天天操天天干 | 亚洲91中文字幕无线码三区 | 国产精品一区二区在线看 | 精品在线播放视频 | 精品在线视频观看 | 日韩一区精品 | 日韩在线观看小视频 | a天堂最新版中文在线地址 久久99久久精品国产 | 国产黑丝一区二区三区 | 国产精品久久久免费 | 99精品视频在线观看 | 久久久美女 | 午夜黄色影院 | 成人黄色在线 | 最近中文字幕大全中文字幕免费 | 国产成人一区二区三区 | 97国产大学生情侣白嫩酒店 | 久久狠狠一本精品综合网 | 日韩一区二区三区高清在线观看 | 成人在线观看资源 | 一区二区伦理 | 国产精品久久久久久久久久尿 | 99re6热在线精品视频 | 国产成人av免费在线观看 | 色 中文字幕 | 日韩中午字幕 | 日韩精品欧美一区 | 99精品视频一区 | 成人在线免费视频 | 国产欧美精品一区二区三区 | 日本黄色大片免费 | 99精品在线 | 97色在线观看免费视频 | 国产精品美女久久久久久久久 | 精品国产一区二区三区不卡 | 91在线看| 日韩三级在线 | 欧美中文字幕第一页 | 午夜精品电影 | 国产精品美女久久久 | 欧美精品一区二区在线观看 | 69国产成人综合久久精品欧美 | 欧美日韩在线视频免费 | avhd高清在线谜片 | aa级黄色大片 | 国产一区二区在线播放 | 亚洲一片黄 | 综合色站| 91九色在线播放 | 日韩av在线免费看 | 久久久久久久久久久久国产精品 | www黄色软件 | 国产不卡在线视频 | 国产一区二区三区 在线 | 操高跟美女 | 久久视频网址 | 99久久国产免费,99久久国产免费大片 | 日韩免费看的电影 | 国产精品免费观看国产网曝瓜 | 粉嫩av一区二区三区免费 | 欧美亚洲免费在线一区 | 国产精品美女免费视频 | 亚洲电影院 | 成人影视免费 | 黄色三级免费网址 | 99国产精品久久久久久久久久 | 99热在线精品观看 | 久久久久亚洲天堂 | 国产九九九精品视频 | 日韩欧美一区二区三区免费观看 | 51久久成人国产精品麻豆 | 国产专区在线视频 | 在线成人一区二区 | 国产91精品久久久久 | 日本69hd | 久久国产精品一区二区 | 日日干av | 精品99在线视频 | 人人艹人人 | 免费成人在线电影 | 天天干天天摸天天操 | 91精品在线观看视频 | 午夜少妇一区二区三区 | 美女网站在线观看 | 成+人+色综合 | 亚洲理论电影 | 国产精品第二十页 | 在线国产福利 | 一区二区不卡在线观看 | av福利电影 | 欧美性生活一级片 | 久久视频这里有久久精品视频11 | 亚洲乱码久久 | 婷婷午夜| 蜜桃av观看 | 日韩精品一区电影 | 国产在线高清精品 | 天天干天天射天天爽 | 国产精品久久一区二区三区不卡 | av资源中文字幕 | 婷婷色网站 | 午夜视频一区二区三区 | 黄色网址a| 超碰在线个人 | 在线观看视频免费大全 | 精品国产片 | 国产不卡一 | 在线观看视频亚洲 | 欧美黄色高清 | 久久久久久久久久久久亚洲 | 久久免费影院 | 久久亚洲私人国产精品 | 美女视频网 | 伊人狠狠色丁香婷婷综合 | av色一区| av看片在线观看 | 亚洲成人av在线电影 | 99这里都是精品 | www.伊人网.com | 国产成人久久av免费高清密臂 | 免费观看成人 | 国产亚洲精品久久久久久久久久 | 亚洲激情网站免费观看 | 免费日韩一区二区 | 久久免费中文视频 | 日韩精品专区在线影院重磅 | 亚洲专区路线二 | 97精品久久| 91在线观看视频网站 | 久久久久久久影视 | 草久久久久久 | 成人欧美一区二区三区在线观看 | 91精品在线视频观看 | 91视频久久久久 | 国产精品成人自产拍在线观看 | 成人小视频在线观看免费 | 国产精品午夜久久久久久99热 | 亚洲国产中文在线 | 中文字幕在线观看第一页 | 亚洲精品中文在线资源 | 亚洲在线视频播放 | 国产一区二区在线看 | 欧美另类调教 | 五月天婷婷在线观看视频 | 最近日韩中文字幕中文 | 美女黄频 | 人人澡人| 99在线观看精品 | 99免费精品 | 久久久精品免费看 | 天天天天色综合 | 91亚洲精品在线观看 | 色婷婷狠| 国产九色91| 久久久久区 | 免费视频a| 久久久久久蜜桃一区二区 | 天天操天天操天天干 | 开心激情五月婷婷 | 成人h在线观看 | 黄色网在线免费观看 | 狠狠色丁香久久婷婷综合五月 | 国产视频一级 | 国产又粗又猛又黄 | 成人影片免费 | 美州a亚洲一视本频v色道 | 一区二区视频电影在线观看 | 国产精品久久久久aaaa九色 | 天天干夜夜想 | 国产精品美女视频 | 日韩城人在线 | 日本电影久久 | 成人影视免费 | 日韩有码中文字幕在线 | 91精品国产麻豆 | 夜色在线资源 | 日韩精品免费一线在线观看 | 日韩精品一区二区三区电影 | 成年人视频在线免费观看 | 五月婷婷狠狠 | 久久一二三四 | 日日干美女 | 久久免费精品国产 | 日韩av资源在线观看 | 国产护士av | 五月婷婷激情综合网 | 成人污视频在线观看 | 中文字幕黄色 | 国产在线观看a | 日韩久久午夜一级啪啪 | 97视频免费观看 | 激情伊人五月天 | 人人爱爱 | 最近久乱中文字幕 | 中文字幕资源站 | 国产高清在线免费视频 | 精品欧美在线视频 | 国产又粗又猛又爽又黄的视频免费 | 国产精品美女久久久久久久久 | 91精品国自产在线观看 | 97精品国产91久久久久久久 | 日本丰满少妇免费一区 | 黄色av电影在线 | 国产精品一区二区三区久久久 | 特级毛片在线免费观看 | 免费又黄又爽的视频 | 一级a性色生活片久久毛片波多野 | 国产在线综合视频 | 九九电影在线 | 草久在线 | 国产高清精品在线观看 | 久久婷婷综合激情 | av资源中文字幕 | 久草视频在线新免费 | 久久成人精品 | 免费久久99精品国产婷婷六月 | 精品久久久久免费极品大片 | 久久久久久久久免费 | 成人av资源在线 | 超碰在线免费97 | 亚洲国产视频网站 | 亚洲黄色一级视频 | 成人黄色资源 | 国产直播av| 免费在线黄色av | 日韩欧美大片免费观看 | 亚洲精品乱码久久久久久高潮 | av网站在线免费观看 | 国产精品久久视频 | 五月丁香 | 久久综合久久综合久久综合 | 日韩特级黄色片 | 欧美电影黄色 | 久久久久久久久久久久电影 | 男女精品久久 | 久久精品一区 | 日韩欧美v | 麻豆免费视频网站 | 波多野结衣在线观看一区 | a极黄色片 | 337p日本欧洲亚洲大胆裸体艺术 | 国产日韩欧美视频在线观看 | 久久久久电影网站 | 国产精品久久久久永久免费 | 亚州天堂 | av电影免费看 | 狠狠操导航 | www.久久精品视频 | 91亚洲欧美 | 国产一区免费观看 | 久久伊人操| 在线观看黄a | 久久97久久97精品免视看 | 91福利视频一区 | 日韩免费电影在线观看 | 久久久久久久久久久久久久免费看 | 婷婷激情久久 | 在线观看中文字幕 | 狠狠色丁香久久婷婷综 | 婷婷午夜 | 成人黄色电影免费观看 | 国产精品视频资源 | 国产成人av在线 | 91黄视频在线观看 | 亚洲va在线va天堂 | 91亚洲永久精品 | 国产专区精品视频 | 免费国产一区二区 | 五月天激情电影 | 国产在线观看高清视频 | 欧美激情综合五月 | 波多野结衣在线视频一区 | 亚洲精品综合在线 | 日批在线看| 天天操天天曰 | 色黄www小说 | 国产91精品一区二区麻豆亚洲 | 久久一精品| 欧美日韩1区2区 | 91完整版在线观看 | 国产精品久久久久久久av大片 | 国精产品满18岁在线 | 亚洲天堂网视频在线观看 | 国产精品视频永久免费播放 | 欧美九九九| 日韩精品短视频 | 嫩草av影院 | 国产蜜臀av| 国产欧美在线一区二区三区 | 久久国产精品久久精品 | 国产视频日本 | 免费三及片 | 中文字幕亚洲精品日韩 | 婷婷六月天丁香 | 久久久久久激情 | 日韩国产精品久久 | 国精产品999国精产品岳 | 亚洲视频axxx | 久久曰视频 | 97在线视频免费观看 | 99色人 | 日韩在线观看网站 | 国产色视频一区二区三区qq号 | 丁香九月激情综合 | 日本aaa在线观看 | 久久国产精品系列 | 久久 国产一区 | 欧美激情精品久久久 | 亚洲成aⅴ人片久久青草影院 | 国产成人精品久 | 国产午夜一区 | 日韩高清精品一区二区 | 国产成人精品在线观看 | 日韩免费电影一区二区 | 精品av网站 | 狠狠操电影网 | 欧美国产精品一区二区 | 狠狠色狠狠色 | 国产成人久久av | 国产精品99久久久久 | 人人干免费 | 日本精品在线视频 | 国产免费观看久久 | 国内精自线一二区永久 | 免费视频91| 一本之道乱码区 | 国语黄色片 | 久久久久久久av | 中文字幕刺激在线 | 国产一区私人高清影院 | 久久精品久久精品久久精品 | 一级免费看 | 五月激情丁香图片 | 亚洲精品 在线视频 | 久草亚洲视频 | 日韩在线观看中文 | 久久手机视频 | 在线观看视频一区二区 | 91视频在线免费下载 | 国产精品欧美一区二区 | 亚洲精品视频在线观看免费视频 | 91免费黄视频| 久久国产精品小视频 | 国产a国产 | 国产成人精品综合久久久 | 精品国产乱码久久久久久天美 | 丁香av在线 | 精品视频免费在线 | 99中文在线| av免费试看 | 色婷婷狠 | 久久99影院 | 国产成人精品午夜在线播放 | 国产91在线 | 美洲 | 安徽妇搡bbbb搡bbbb | 97精品超碰一区二区三区 | 亚洲亚洲精品在线观看 | 成人动漫视频在线 | 国产原厂视频在线观看 | 欧美日韩一区二区免费在线观看 | 国产在线精品一区二区 | 午夜久久影视 | 国产电影一区二区三区四区 | 精品国产视频一区 | 久久中文字幕视频 | 天天综合天天做天天综合 | 亚洲成av人电影 | 久久成人人人人精品欧 | 国产精品成人免费精品自在线观看 | 五月婷婷六月丁香 | 久久在线精品 | 成人黄在线观看 | 色综合网| 成人高清在线 | 九九导航| 色婷婷色| 黄色毛片电影 | 国产视频在线一区二区 | 黄av资源| 免费看一级 | 国产精品乱码在线 | 久久成人18免费网站 | 国产精彩视频一区 | 国产黄色成人av | 欧美伦理一区 | 国产高清在线免费观看 | 日本视频精品 | 精品久久久久久久久久 | 亚洲三级视频 | 亚洲精品视频在线观看免费视频 | 精品久久久久久国产 | 色婷婷狠狠干 | 久草视频视频在线播放 | 日本狠狠色 | 狠狠色伊人亚洲综合网站色 | 97天天干| 国产中出在线观看 | 久久毛片高清国产 | 中文字幕一区二区三区在线播放 | 99精品国产在热久久下载 | 四虎8848免费高清在线观看 | 8x成人免费视频 | 成人免费视频视频在线观看 免费 | 精品一区二区三区四区在线 | 久久久久久影视 | 久久精品视频2 | 69欧美视频| av黄色成人 | 在线观看视频免费播放 | av怡红院 | 精品久久久国产 | 欧美在线观看小视频 | 在线观看91久久久久久 | 国产午夜精品一区二区三区四区 | 日日操网| 国产无吗一区二区三区在线欢 | 国产精品国产自产拍高清av | av一级一片 | 午夜精品中文字幕 | 欧美一级乱黄 | 午夜精品久久久久久久久久久久 | 国产资源中文字幕 | 99精品国产免费久久久久久下载 | 精品在线观看一区二区三区 | 中文字幕成人在线 | 99久热在线精品 | 99久久精品无码一区二区毛片 | 亚洲欧美怡红院 | 天天草天天摸 | 天天综合成人网 | 国产精品一区二区吃奶在线观看 | 日韩在线 一区二区 | 永久中文字幕 | 中文字幕中文字幕在线中文字幕三区 | 亚洲成人黄色 | 韩国精品一区二区三区六区色诱 | 久久精品一区八戒影视 | 97色视频在线 | 成人一级视频在线观看 | 九七视频在线 | 五月天欧美精品 | 色综合天 | 成人宗合网 | 精品不卡av| 国内精品久久久久久久久 | 成人日批视频 | 最近中文字幕免费视频 | 激情婷婷色 | 久久久久久久精 | 久久久亚洲电影 | www.av免费观看 | 亚洲免费不卡 | 中文字幕av在线电影 | 欧美成人日韩 | 国产精品第一页在线观看 | 男女激情网址 | 色噜噜色噜噜 | 国产在线一卡 | av三级av | 成年人免费观看在线视频 | 亚洲精品66 | 日韩免费久久 | 97超碰人人澡 | 成人a大片| 免费在线观看黄色网 | 国产精品免费观看在线 | 成人午夜电影网站 | 国产精品一二三 | 特级大胆西西4444www | 一区二区在线影院 | 手机成人av | 免费在线黄色av | 国产一区二区在线免费播放 | 国产精品第一 | 中文字幕在线观看三区 | 久99久中文字幕在线 | 日韩com| 国产精品久久久久久久免费大片 | 在线看国产精品 | 久久你懂的 | 激情偷乱人伦小说视频在线观看 | 在线播放精品一区二区三区 | 久久免费视频在线观看 | 久久不卡免费视频 | 中文字幕丝袜一区二区 | 中文字幕在线播放一区二区 | 国产免费a | www.看片网站| 九九热免费在线观看 | 天天操夜夜摸 | 热久久免费国产视频 | 国产盗摄精品一区二区 | 正在播放亚洲精品 | 国产精品久久中文字幕 | 久久久久久久久综合 | 欧美激情xxxx性bbbb | 操操操av | 欧美三级高清 | 亚洲午夜精品福利 | 日韩精品一区二区三区高清免费 | 999久久精品| 在线亚洲成人 | 日韩免费区 | www.香蕉 | 一区二区伦理 | 国产自偷自拍 | 激情视频91 | 午夜免费视频网站 | 欧美国产一区在线 | 99热精品免费观看 | 欧美在线日韩在线 | 久久婷婷精品 | 免费视频久久久 | 国产精品国产三级国产aⅴ无密码 | 午夜久久久久久久 | av综合网址| 久久久影片 | 亚洲视频在线观看 | 免费高清在线视频一区· | 国产日韩在线播放 | 在线中文视频 | 国产一区国产二区在线观看 | 久久精彩 | 91视频国产免费 | 久久黄色片 | 婷婷色在线视频 | 国产资源免费在线观看 | 成人免费亚洲 | 国产精品国产精品 | 国产精品手机播放 | 欧美坐爱视频 | 精品国产一区二区三区在线观看 | 丁香婷婷久久 | 日本中文不卡 | 成人va在线观看 | 在线观看成人毛片 | 日韩成人精品一区二区三区 | 色窝资源 | 免费观看第二部31集 | 521色香蕉网站在线观看 | 日韩免费一区二区三区 | 国内精品视频久久 | 精品字幕 | 国产成人黄色在线 | 91 在线视频播放 | 欧美地下肉体性派对 | 精品久久美女 | 992tv人人网tv亚洲精品 | 久久久久久久久久久福利 | 欧美韩日在线 | 成人蜜桃视频 | 极品国产91在线网站 | 久久在线免费观看视频 | 狠狠色狠狠色合久久伊人 | 色射色 | 丁香花五月 | 日韩毛片在线一区二区毛片 | 免费看一级一片 | av免费网| 999视频网站| 日韩黄视频 | 天天操天天射天天爽 | 亚洲成人av片在线观看 | 欧美做受69 | 成人午夜免费剧场 | 国产韩国精品一区二区三区 | 欧美日韩国产综合一区二区 | 国产精品专区在线观看 | 国产精品中文久久久久久久 | 亚州国产精品久久久 | 中文字幕在线观看91 | 狠狠做深爱婷婷综合一区 | 日本精油按摩3 | 九色精品免费永久在线 | 永久免费精品视频 | 成人资源在线播放 | 日韩网站在线看片你懂的 | 欧美一级xxxx| 六月天综合网 | av色网站 | 九九九热视频 | 久久人人精| 有码中文在线 | 国产精品精品久久久久久 | 精品影院一区二区久久久 | 亚洲色图美腿丝袜 | 国产精品女同一区二区三区久久夜 | 国产成人三级在线观看 | 最近中文字幕国语免费高清6 | 国产区精品视频 | 国产日韩欧美在线观看 | 色综合天天综合 | 国产高清视频 | 国产 日韩 在线 亚洲 字幕 中文 | 超碰人人乐 | 九九久久视频 | 国产成人亚洲精品自产在线 | 中文av网 | 亚洲美女免费精品视频在线观看 | 中中文字幕av在线 | 九九精品视频在线看 | 99久久国产免费免费 | 国产视频一区二区在线播放 | av电影 一区二区 | 又色又爽又黄高潮的免费视频 | 久久久99精品免费观看 | 日日成人网 | 中文字幕精品一区二区精品 | 五月天国产精品 | 国产婷婷一区二区 | 91大神一区二区三区 | 国产小视频免费观看 | 日韩毛片久久久 | 久久成人欧美 | 在线观看国产中文字幕 | 99久热在线精品视频 | 久久久影院官网 | 97视频免费 | zzijzzij日本成熟少妇 | 国产成人综合在线观看 | 亚洲国产播放 | 人人干狠狠操 | 国产精品大全 | 亚洲在线视频播放 | 国产精品一区二区久久精品 | 激情综合网五月婷婷 | 91探花国产综合在线精品 | 亚洲精品福利视频 | 国产精品久久久久婷婷二区次 | 黄色毛片视频免费 | 超碰公开在线 | 激情婷婷综合网 | 精品在线播放 | 五月婷影院 | 国产va精品免费观看 | 欧美日韩在线观看一区 | 激情综合亚洲 | 中文字幕在线看视频 | 欧美日韩一区二区久久 | 色婷婷狠 | 日日骑 | 免费看的视频 | 人人要人人澡人人爽人人dvd | 久久精品综合一区 | 麻豆精品传媒视频 | 久久久国产精品人人片99精片欧美一 | 日韩在线看片 | 国产精品乱码久久久久 | 日本久久久影视 | 伊人久久在线观看 | 999久久国精品免费观看网站 | 天天干夜夜爽 | 色天天| 9797在线看片亚洲精品 | 黄色小网站在线观看 | 亚洲精品综合欧美二区变态 | 国产精品免费一区二区 | 日韩在线免费高清视频 | 国产在线不卡 | 欧美视频在线二区 | www.大网伊人 | 97香蕉久久超级碰碰高清版 | 午夜丁香网 | 五月天堂色 | 欧美一区日韩精品 | 国产情侣一区 | 色偷偷88欧美精品久久久 | 一区二区激情视频 | 又黄又爽又湿又无遮挡的在线视频 | 中文字幕在线观看2018 | 国产 中文 日韩 欧美 | 欧美一区二区三区激情视频 | 国产精品久久久久久久久免费看 | 国产高清在线免费 | 天天艹日日干 | 人人草天天草 | 探花视频免费在线观看 | 久久国产精品99久久久久久老狼 | 国产欧美最新羞羞视频在线观看 | 亚洲精品乱码久久 | 国产在线一区观看 | 毛片网在线播放 | 欧美国产日韩一区 | 精品一区二区久久久久久久网站 | 亚洲国产精品第一区二区 | 日韩网站在线看片你懂的 | 亚洲精品久久久蜜臀下载官网 | 操操操人人人 | 在线高清一区 | 国产精品情侣视频 | 久久综合网色—综合色88 | 夜夜操综合网 | 一区二区三区高清在线观看 | 日韩中文字幕91 |