日韩av黄I国产麻豆传媒I国产91av视频在线观看I日韩一区二区三区在线看I美女国产在线I麻豆视频国产在线观看I成人黄色短片

歡迎訪問 生活随笔!

生活随笔

當(dāng)前位置: 首頁 > 编程语言 > python >内容正文

python

电影评论情感分析-IMDB数据集 | python 利用朴素贝叶斯、神经网络模型

發(fā)布時間:2023/12/8 python 33 豆豆
生活随笔 收集整理的這篇文章主要介紹了 电影评论情感分析-IMDB数据集 | python 利用朴素贝叶斯、神经网络模型 小編覺得挺不錯的,現(xiàn)在分享給大家,幫大家做個參考.

載入包

import torch # torch==1.7.1 import torch.nn as nn from torch.utils.data import Dataset from torch.utils.data import DataLoader import os import re import numpy as np from tqdm import tqdm device = torch.device('cuda:1' if torch.cuda.is_available() else 'cpu')MAX_WORD = 10000 # 只保留最高頻的10000MAX_LEN = 300 # 句子統(tǒng)一長度為200 word_count={} # 詞-詞出現(xiàn)的詞數(shù) 詞典

數(shù)據(jù)處理


#讀取數(shù)據(jù)集

import numpy as np import pandas as pd import warnings warnings.filterwarnings('ignore') data = pd.read_csv('./data/labeledTrainData.tsv',header=0, delimiter="\t", quoting=3) print('dataset shape is', data.shape)

#數(shù)據(jù)清洗

#去除網(wǎng)頁符號 from bs4 import BeautifulSoup example = BeautifulSoup(data['review'][0]) print(example.get_text())#去除非字母元素 import re letters_only = re.sub('[^A-Za-z]', ' ', example.get_text()) print(letters_only)#將大寫字母轉(zhuǎn)化成小寫,并對元素進行劃分 lower_case = letters_only.lower() words = lower_case.split() print(words)

#獲取停用詞

# import nltk # nltk.download('stopwords')def get_custom_stopwords(stop_words_file):with open(stop_words_file,encoding='utf-8') as f:stopwords = f.read()stopwords_list = stopwords.split('\n')custom_stopwords_list = [i for i in stopwords_list]return custom_stopwords_list stop_words_file = 'english.txt' stopwords = get_custom_stopwords(stop_words_file) words = [word for word in words if word not in stopwords] ' '.join(words)

#打包成數(shù)據(jù)清洗函數(shù)

from bs4 import BeautifulSoup #導(dǎo)入正則表達(dá)式工具包 # import re # from nltk.corpus import stopwords #定義review_to_text函數(shù),完成對原始評論的三項數(shù)據(jù)預(yù)處理任務(wù) def review_to_text(review):#任務(wù)一:去掉html標(biāo)記。raw_text = BeautifulSoup(review,'html').get_text()#任務(wù)二:去掉非字母字符,sub(pattern, replacement, string) 用空格代替letters = re.sub('[^a-zA-Z]',' ',raw_text)#str.split(str="", num=string.count(str)) 通過指定分隔符對字符串進行切片,如果參數(shù) num 有指定值,則僅分隔 num 個子字符串#這里是先將句子轉(zhuǎn)成小寫字母表示,再按照空格劃分為單詞listwords = letters.lower().split()return words

#分別對原始數(shù)據(jù)和測試數(shù)據(jù)集進行上述三項處理

X_data = [] y_data=[] for review in data['review']:X_data.append(' '.join(review_to_text(review)))for sentiment in data['sentiment']:y_data.append(sentiment) # # y_data = data['sentiment'] # print(X_data,y_data)

#對數(shù)據(jù)集進行拆分

from sklearn.model_selection import train_test_splitX_train, X_test, y_train, y_test = train_test_split(X_data, y_data, test_size=0.2, random_state=45)

利用傳統(tǒng)機器學(xué)習(xí)模型,樸素貝葉斯

#向量表示,和對數(shù)據(jù)進行學(xué)習(xí),利用樸素貝葉斯分類器

from sklearn.feature_extraction.text import CountVectorizer #5000的含義向量最大長度為5000,選取次數(shù)最多的5000個單詞作為向量下標(biāo) vectorizer = CountVectorizer(analyzer = 'word', tokenizer = None, preprocessor = None, stop_words = None, max_features = 5000) train_data_features = vectorizer.fit_transform(X_train) t_data_features = vectorizer.transform(X_test)from sklearn.naive_bayes import MultinomialNB nb = MultinomialNB() nb.fit(train_data_features,y_train) print(nb.score(train_data_features, y_train)) print(nb.score(t_data_features, y_test))# #預(yù)測 # pre_str="Naturally in a film who's main themes are of mortality, nostalgia, and loss of innocence it is perhaps not surprising that it is rated more highly by older viewers than younger ones. However there is a craftsmanship and completeness to the film which anyone can enjoy. The pace is steady and constant, the characters full and engaging, the relationships and interactions natural showing that you do not need floods of tears to show emotion, screams to show fear, shouting to show dispute or violence to show anger. Naturally Joyce's short story lends the film a ready made structure as perfect as a polished diamond, but the small changes Huston makes such as the inclusion of the poem fit in neatly. It is truly a masterpiece of tact, subtlety and overwhelming beauty" # pre_str_list=[(' '.join(review_to_text(pre_str)))] # pre_data = vectorizer.transform(pd.Series(pre_str_list)) # result = nb.predict(pre_data) # print(result)訓(xùn)練集精度為0.86,測試集精度為0.84 #output 0.86145 0.8498 [1]

**

利用神經(jīng)模型LSTM/GRU進行數(shù)據(jù)學(xué)習(xí)、分類、預(yù)測

**

#將處理好的訓(xùn)練數(shù)據(jù)和測試數(shù)據(jù)寫入新的train.txt和test.txt,便于使用dataset讀取數(shù)據(jù)

with open("train.txt","w",encoding="utf-8") as f:for i in range(len(X_train)):# print(type(y_train[i]))# print(y_train[i])# print(type(X_train[i]))# print(type(X_train[i]))f.write(str(y_train[i])+" "+X_train[i]+"\n") f.close()with open("test.txt","w",encoding="utf-8") as f1:for i in range(len(X_test)):# print(type(y_train[i]))# print(y_train[i])# print(type(X_train[i]))# print(type(X_train[i]))f1.write(str(y_test[i])+" "+X_test[i]+"\n") f1.close()

#將英文句子切成單詞,并統(tǒng)計詞頻,生成詞典

def tokenizer(sentence):return sentence.split()def data_process(text): for line in text:tokens = tokenizer(line) # 分詞統(tǒng)計詞數(shù)for token in tokens:if token in word_count.keys():word_count[token] = word_count[token] + 1else:word_count[token] = 0print("build vocabulary")vocab = {"<UNK>": 0, "<PAD>": 1}word_count_sort = sorted(word_count.items(), key=lambda item : item[1], reverse=True) # 對詞進行排序,過濾低頻詞,只取前MAX_WORD個高頻詞word_number = 1for word in word_count_sort:if word[0] not in vocab.keys():vocab[word[0]] = len(vocab)word_number += 1if word_number > MAX_WORD:breakreturn vocab

#建立詞典

vocab=data_process(X_train) # print(vocab)

#GRU模型構(gòu)建,如果要換成LSTM,把nn.GRU換成nn.LSTM即可

class GRU(nn.Module):def __init__(self, vocab, embed_size, num_hiddens, num_layers):super(GRU, self).__init__()self.embedding = nn.Embedding(len(vocab), embed_size) # embedding層self.encoder = nn.LSTM(input_size=embed_size,hidden_size=num_hiddens,num_layers=num_layers,bidirectional=False)self.decoder = nn.Linear(num_hiddens, 2)self.softmax = nn.Softmax(dim=1)def forward(self, inputs):# inputs的形狀是(批量大小,詞數(shù)),因此LSTM需要將序列長度(Seq_len)作為第一維,所以將輸入轉(zhuǎn)置后 再提取詞特征embeddings = self.embedding(inputs.permute(1,0)) # permute(1,0)交換維度# LSTM只傳入輸入embeddings,因此只返回最后一層的隱藏層再各時間步的隱藏狀態(tài)# outputs的形狀是(詞數(shù),批量大小, 隱藏單元個數(shù))outputs, _ = self.encoder(embeddings)# 連接初時間步和最終時間步的隱藏狀態(tài)作為全連接層的輸入。形狀為(批量大小, 隱藏單元個數(shù))encoding = outputs[-1] # 取LSTM最后一層結(jié)果outs = self.softmax(self.decoder(encoding)) # 輸出層為二維概率[a,b]return outs

#文本向量轉(zhuǎn)化

def text_transform(sentence_list, vocab):sentence_index_list = []for sentence in sentence_list:sentence_idx = [vocab[token] if token in vocab.keys() else vocab['<UNK>'] for token in tokenizer(sentence)] # 句子分詞轉(zhuǎn)為idif len(sentence_idx) < MAX_LEN:for i in range(MAX_LEN-len(sentence_idx)): # 對長度不夠的句子進行PAD填充sentence_idx.append(vocab['<PAD>'])sentence_idx = sentence_idx[:MAX_LEN] # 取前MAX_LEN長度sentence_index_list.append(sentence_idx)return torch.LongTensor(sentence_index_list) # 將轉(zhuǎn)為idx的詞轉(zhuǎn)為tensor

#模型訓(xùn)練

def train(model, train_data, vocab, epoch=10):print('train model')model = model.to(device)loss_sigma = 0.0correct = 0.0# 定義損失函數(shù)和優(yōu)化器criterion = torch.nn.NLLLoss()optimizer = torch.optim.Adam(model.parameters(), lr=5e-4)for epoch in tqdm(range(epoch)):model.train()avg_loss = 0 # 平均損失avg_acc = 0 # 平均準(zhǔn)確率for idx, (text, label) in enumerate(tqdm(train_data)):train_x = text_transform(text, vocab).to(device)train_y = label.to(device)optimizer.zero_grad()pred = model(train_x)loss = criterion(pred.log(), train_y)loss.backward()optimizer.step()avg_loss += loss.item()avg_acc += accuracy(pred, train_y)# 一個epoch結(jié)束后,計算平均loss和評平均accavg_loss = avg_loss / len(train_data)avg_acc = avg_acc / len(train_data)print("avg_loss:", avg_loss, " train_avg_acc:,", avg_acc)# 保存訓(xùn)練完成后的模型參數(shù)torch.save(model.state_dict(), 'LSTM_IMDB_parameter.pkl')

#設(shè)計數(shù)據(jù)格式

class MyDataset(Dataset):def __init__(self, text_path):file = open(text_path, 'r', encoding='utf-8')self.text_with_tag = file.readlines() # 文本標(biāo)簽與內(nèi)容file.close()def __getitem__(self, index): # 重寫getitemline = self.text_with_tag[index] # 獲取一個樣本的標(biāo)簽和文本信息label = int(line[0]) # 標(biāo)簽信息text = line[2:-1] # 文本信息return text, labeldef __len__(self):return len(self.text_with_tag)

#模型測試

def tst(model, test_data, vocab):print('test model')model = model.to(device)model.eval()avg_acc = 0for idx, (text, label) in enumerate(tqdm(test_data)):train_x = text_transform(text, vocab).to(device)train_y = label.to(device)pred = model(train_x)avg_acc += accuracy(pred, train_y)avg_acc = avg_acc / len(test_data)return avg_acc

#計算預(yù)測準(zhǔn)確性

def accuracy(y_pred, y_true):label_pred = y_pred.max(dim=1)[1]acc = len(y_pred) - torch.sum(torch.abs(label_pred-y_true)) # 正確的個數(shù)return acc.detach().cpu().numpy() / len(y_pred)

#main函數(shù)

def main():vocab = data_process(X_train)np.save('vocab.npy', vocab) # 詞典保存為本地vocab = np.load('vocab.npy', allow_pickle=True).item() # 加載本地已經(jīng)存儲的vocab# 構(gòu)建MyDataset實例train_data = MyDataset(text_path="./train.txt")test_data = MyDataset(text_path="./test.txt")# 構(gòu)建DataLodertrain_loader = DataLoader(dataset=train_data, batch_size=128, shuffle=True)test_loader = DataLoader(dataset=test_data, batch_size=64, shuffle=False)# 生成模型model = GRU(vocab=vocab, embed_size=300,num_hiddens=256, num_layers=3) # 定義模型train(model=model, train_data=train_loader, vocab=vocab, epoch=30)# 加載訓(xùn)練好的模型model.load_state_dict(torch.load('LSTM_IMDB_parameter.pkl', map_location= torch.device('cuda:1' if torch.cuda.is_available() else 'cpu')))# 測試結(jié)果acc = tst(model=model, test_data=test_loader, vocab=vocab)print(acc)

#執(zhí)行

if __name__ == '__main__':main()

結(jié)果

參考:
情感分析-IMDB數(shù)據(jù)集
pytorch構(gòu)建LSTM分類器用于IMDB情感分類
數(shù)據(jù)集:
文中涉及到的數(shù)據(jù)集和停用詞表

鏈接:https://pan.baidu.com/s/1OTgLDoE1P9_FPDQaLU1VKw

提取碼:mz6p

全部源碼

import numpy as np import pandas as pd import warnings warnings.filterwarnings('ignore')import torch # torch==1.7.1 import torch.nn as nn from torch.utils.data import Dataset from torch.utils.data import DataLoader import os import re import numpy as np from tqdm import tqdm device = torch.device('cuda:1' if torch.cuda.is_available() else 'cpu')MAX_WORD = 10000 # 只保留最高頻的10000MAX_LEN = 300 # 句子統(tǒng)一長度為200 word_count={} # 詞-詞出現(xiàn)的詞數(shù) 詞典data = pd.read_csv('./data/labeledTrainData.tsv',header=0, delimiter="\t", quoting=3) print('dataset shape is', data.shape)from bs4 import BeautifulSoup example = BeautifulSoup(data['review'][0]) print(example.get_text())import re letters_only = re.sub('[^A-Za-z]', ' ', example.get_text()) print(letters_only)lower_case = letters_only.lower() words = lower_case.split() print(words)# import nltk # nltk.download('stopwords')def get_custom_stopwords(stop_words_file):with open(stop_words_file,encoding='utf-8') as f:stopwords = f.read()stopwords_list = stopwords.split('\n')custom_stopwords_list = [i for i in stopwords_list]return custom_stopwords_list stop_words_file = 'english.txt' stopwords = get_custom_stopwords(stop_words_file) words = [word for word in words if word not in stopwords] ' '.join(words)from bs4 import BeautifulSoup #導(dǎo)入正則表達(dá)式工具包 # import re # from nltk.corpus import stopwords #定義review_to_text函數(shù),完成對原始評論的三項數(shù)據(jù)預(yù)處理任務(wù) def review_to_text(review):#任務(wù)一:去掉html標(biāo)記。raw_text = BeautifulSoup(review,'html').get_text()#任務(wù)二:去掉非字母字符,sub(pattern, replacement, string) 用空格代替letters = re.sub('[^a-zA-Z]',' ',raw_text)#str.split(str="", num=string.count(str)) 通過指定分隔符對字符串進行切片,如果參數(shù) num 有指定值,則僅分隔 num 個子字符串#這里是先將句子轉(zhuǎn)成小寫字母表示,再按照空格劃分為單詞listwords = letters.lower().split()#過濾掉停用詞# words = [w for w in words if w not in stopwords]# words = [w for w in words if w not in stopwords.words()]return words#分別對原始數(shù)據(jù)和測試數(shù)據(jù)集進行上述三項處理 X_data = [] y_data=[] for review in data['review']:X_data.append(' '.join(review_to_text(review)))for sentiment in data['sentiment']:y_data.append(sentiment) # # y_data = data['sentiment'] # print(X_data,y_data)from sklearn.model_selection import train_test_splitX_train, X_test, y_train, y_test = train_test_split(X_data, y_data, test_size=0.2, random_state=45) print(type(y_train))with open("train.txt","w",encoding="utf-8") as f:for i in range(len(X_train)):# print(type(y_train[i]))# print(y_train[i])# print(type(X_train[i]))# print(type(X_train[i]))f.write(str(y_train[i])+" "+X_train[i]+"\n") f.close()with open("test.txt","w",encoding="utf-8") as f1:for i in range(len(X_test)):# print(type(y_train[i]))# print(y_train[i])# print(type(X_train[i]))# print(type(X_train[i]))f1.write(str(y_test[i])+" "+X_test[i]+"\n") f1.close()# print(X_train) # from sklearn.feature_extraction.text import CountVectorizer # #5000的含義向量最大長度為5000,選取次數(shù)最多的5000個單詞作為向量下標(biāo) # vectorizer = CountVectorizer(analyzer = 'word', tokenizer = None, preprocessor = None, stop_words = None, max_features = 5000) # train_data_features = vectorizer.fit_transform(X_train) # t_data_features = vectorizer.transform(X_test) # # from sklearn.naive_bayes import MultinomialNB # nb = MultinomialNB() # nb.fit(train_data_features,y_train) # print(nb.score(train_data_features, y_train)) # print(nb.score(t_data_features, y_test)) # # #預(yù)測 # pre_str="Naturally in a film who's main themes are of mortality, nostalgia, and loss of innocence it is perhaps not surprising that it is rated more highly by older viewers than younger ones. However there is a craftsmanship and completeness to the film which anyone can enjoy. The pace is steady and constant, the characters full and engaging, the relationships and interactions natural showing that you do not need floods of tears to show emotion, screams to show fear, shouting to show dispute or violence to show anger. Naturally Joyce's short story lends the film a ready made structure as perfect as a polished diamond, but the small changes Huston makes such as the inclusion of the poem fit in neatly. It is truly a masterpiece of tact, subtlety and overwhelming beauty" # pre_str_list=[(' '.join(review_to_text(pre_str)))] # pre_data = vectorizer.transform(pd.Series(pre_str_list)) # result = nb.predict(pre_data) # print(result)def tokenizer(sentence):return sentence.split()def data_process(text): # 根據(jù)文本路徑生成文本的標(biāo)簽for line in text:tokens = tokenizer(line) # 分詞統(tǒng)計詞數(shù)for token in tokens:if token in word_count.keys():word_count[token] = word_count[token] + 1else:word_count[token] = 0print("build vocabulary")vocab = {"<UNK>": 0, "<PAD>": 1}word_count_sort = sorted(word_count.items(), key=lambda item : item[1], reverse=True) # 對詞進行排序,過濾低頻詞,只取前MAX_WORD個高頻詞word_number = 1for word in word_count_sort:if word[0] not in vocab.keys():vocab[word[0]] = len(vocab)word_number += 1if word_number > MAX_WORD:breakreturn vocabvocab=data_process(X_train) # print(vocab)class GRU(nn.Module):def __init__(self, vocab, embed_size, num_hiddens, num_layers):super(GRU, self).__init__()self.embedding = nn.Embedding(len(vocab), embed_size) # embedding層## self.encoder=nn.LSTM(input_size=embed_size# ,hidden_size=num_hiddens,num_layers=num_layers,bidirectional=False)self.encoder = nn.LSTM(input_size=embed_size,hidden_size=num_hiddens,num_layers=num_layers,bidirectional=False)self.decoder = nn.Linear(num_hiddens, 2)self.softmax = nn.Softmax(dim=1)def forward(self, inputs):# inputs的形狀是(批量大小,詞數(shù)),因此LSTM需要將序列長度(Seq_len)作為第一維,所以將輸入轉(zhuǎn)置后 再提取詞特征embeddings = self.embedding(inputs.permute(1,0)) # permute(1,0)交換維度# LSTM只傳入輸入embeddings,因此只返回最后一層的隱藏層再各時間步的隱藏狀態(tài)# outputs的形狀是(詞數(shù),批量大小, 隱藏單元個數(shù))outputs, _ = self.encoder(embeddings)# 連接初時間步和最終時間步的隱藏狀態(tài)作為全連接層的輸入。形狀為(批量大小, 隱藏單元個數(shù))encoding = outputs[-1] # 取LSTM最后一層結(jié)果outs = self.softmax(self.decoder(encoding)) # 輸出層為二維概率[a,b]return outsdef text_transform(sentence_list, vocab):sentence_index_list = []for sentence in sentence_list:sentence_idx = [vocab[token] if token in vocab.keys() else vocab['<UNK>'] for token in tokenizer(sentence)] # 句子分詞轉(zhuǎn)為idif len(sentence_idx) < MAX_LEN:for i in range(MAX_LEN-len(sentence_idx)): # 對長度不夠的句子進行PAD填充sentence_idx.append(vocab['<PAD>'])sentence_idx = sentence_idx[:MAX_LEN] # 取前MAX_LEN長度sentence_index_list.append(sentence_idx)return torch.LongTensor(sentence_index_list) # 將轉(zhuǎn)為idx的詞轉(zhuǎn)為tensor# 模型訓(xùn)練 def train(model, train_data, vocab, epoch=10):print('train model')model = model.to(device)loss_sigma = 0.0correct = 0.0# 定義損失函數(shù)和優(yōu)化器criterion = torch.nn.NLLLoss()optimizer = torch.optim.Adam(model.parameters(), lr=5e-4)for epoch in tqdm(range(epoch)):model.train()avg_loss = 0 # 平均損失avg_acc = 0 # 平均準(zhǔn)確率for idx, (text, label) in enumerate(tqdm(train_data)):train_x = text_transform(text, vocab).to(device)train_y = label.to(device)optimizer.zero_grad()pred = model(train_x)loss = criterion(pred.log(), train_y)loss.backward()optimizer.step()avg_loss += loss.item()avg_acc += accuracy(pred, train_y)# 一個epoch結(jié)束后,計算平均loss和評平均accavg_loss = avg_loss / len(train_data)avg_acc = avg_acc / len(train_data)print("avg_loss:", avg_loss, " train_avg_acc:,", avg_acc)# 保存訓(xùn)練完成后的模型參數(shù)torch.save(model.state_dict(), 'LSTM_IMDB_parameter.pkl')class MyDataset(Dataset):def __init__(self, text_path):file = open(text_path, 'r', encoding='utf-8')self.text_with_tag = file.readlines() # 文本標(biāo)簽與內(nèi)容file.close()def __getitem__(self, index): # 重寫getitemline = self.text_with_tag[index] # 獲取一個樣本的標(biāo)簽和文本信息label = int(line[0]) # 標(biāo)簽信息text = line[2:-1] # 文本信息return text, labeldef __len__(self):return len(self.text_with_tag)# 模型測試 def tst(model, test_data, vocab):print('test model')model = model.to(device)model.eval()avg_acc = 0for idx, (text, label) in enumerate(tqdm(test_data)):train_x = text_transform(text, vocab).to(device)train_y = label.to(device)pred = model(train_x)avg_acc += accuracy(pred, train_y)avg_acc = avg_acc / len(test_data)return avg_acc# 計算預(yù)測準(zhǔn)確性 def accuracy(y_pred, y_true):label_pred = y_pred.max(dim=1)[1]acc = len(y_pred) - torch.sum(torch.abs(label_pred-y_true)) # 正確的個數(shù)return acc.detach().cpu().numpy() / len(y_pred)from mxnet.gluon import data as gdata def main():vocab = data_process(X_train)np.save('vocab.npy', vocab) # 詞典保存為本地vocab = np.load('vocab.npy', allow_pickle=True).item() # 加載本地已經(jīng)存儲的vocab# 構(gòu)建MyDataset實例# train_data = X_train# test_data = X_testtrain_data = MyDataset(text_path="./train.txt")test_data = MyDataset(text_path="./test.txt")# 構(gòu)建DataLoder# train_data = GetLoader(X_train, y_train)# # test_data=GetLoader(X_test,y_test)# train_data = gdata.ArrayDataset(X_train, y_train)train_loader = DataLoader(dataset=train_data, batch_size=128, shuffle=True)test_loader = DataLoader(dataset=test_data, batch_size=64, shuffle=False)# 生成模型model = GRU(vocab=vocab, embed_size=300,num_hiddens=256, num_layers=3) # 定義模型train(model=model, train_data=train_loader, vocab=vocab, epoch=30)# 加載訓(xùn)練好的模型model.load_state_dict(torch.load('LSTM_IMDB_parameter.pkl', map_location= torch.device('cuda:1' if torch.cuda.is_available() else 'cpu')))# 測試結(jié)果acc = tst(model=model, test_data=test_loader, vocab=vocab)print(acc)if __name__ == '__main__':main()

總結(jié)

以上是生活随笔為你收集整理的电影评论情感分析-IMDB数据集 | python 利用朴素贝叶斯、神经网络模型的全部內(nèi)容,希望文章能夠幫你解決所遇到的問題。

如果覺得生活随笔網(wǎng)站內(nèi)容還不錯,歡迎將生活随笔推薦給好友。

中文字幕中文字幕在线中文字幕三区 | 国产精品免费在线 | 亚洲国产网站 | 狠狠地日 | 免费在线观看视频a | 欧美aaa级片| 又黄又爽又湿又无遮挡的在线视频 | 久久怡红院 | 国产视频97 | 婷婷综合激情 | 久草视频视频在线播放 | www国产精品com | 成人av在线影视 | 在线小视频国产 | 99av国产精品欲麻豆 | 天天激情 | 在线观看av小说 | 久久国产视频网 | 久久不射电影院 | 精品二区久久 | 久久爱992xxoo | 一级成人免费 | 亚洲一区久久久 | 国产日韩视频在线观看 | 992tv在线 | 午夜国产福利视频 | 久久免费视频3 | 伊人天堂av | 日本最新高清不卡中文字幕 | 人人爽人人做 | 国产一区国产精品 | 国产喷水在线 | 一本一本久久a久久精品综合 | 国产区网址 | 国产精品完整版 | 伊人久久影视 | 亚洲视频 视频在线 | 天天干天天射天天插 | 欧美一级在线 | 久久精品国产亚洲精品2020 | 国产午夜在线 | 精品特级毛片 | 国产精品久久久久久久久岛 | av在线中文| 一区二区三区视频网站 | 777奇米四色 | 丁香六月激情婷婷 | 日韩一区二区三区高清在线观看 | 西西人体4444www高清视频 | 国产在线欧美日韩 | 中文字幕亚洲欧美日韩 | 国产日韩高清在线 | 色综合久久久久综合体 | 免费看的黄色小视频 | 丁香六月婷 | 九九热免费观看 | 久草在线视频资源 | 日本久久久精品视频 | 在线日韩亚洲 | 最近中文字幕完整高清 | 国产在线观看99 | 日韩网站免费观看 | 成人av资源站 | 欧美亚洲精品一区 | 综合色伊人 | 日韩欧美在线综合网 | 国产在线不卡精品 | 中文字幕在线观看完整版 | 国产午夜精品一区二区三区欧美 | 色在线观看网站 | 九九免费在线看完整版 | 99热精品国产一区二区在线观看 | 精品久久久久久久 | 91| 精品美女在线观看 | 91一区二区三区久久久久国产乱 | 国产精品亚洲视频 | 麻豆一区二区 | 美女性爽视频国产免费app | 久久久99精品免费观看app | 欧美超碰在线 | 夜色资源站国产www在线视频 | 麻豆视频在线看 | 国产香蕉久久精品综合网 | www.夜夜| 天天色视频 | 欧美日韩xx | 黄色亚洲精品 | 久久精品男人的天堂 | 精品免费久久 | 国产成人一区二区三区免费看 | 天天添夜夜操 | 国产亚洲视频在线免费观看 | 久久免费视频在线 | 国产免费激情久久 | av女优中文字幕在线观看 | www.久久久.com | 国产香蕉97碰碰久久人人 | 欧美视频www | 性色av免费观看 | 欧美日韩不卡一区 | 国产伦精品一区二区三区高清 | 精品91视频| 九九热视频在线免费观看 | 久久天天躁夜夜躁狠狠躁2022 | 狠狠色丁香婷婷综合视频 | 国产h在线播放 | 国产高清视频在线观看 | 亚洲激情电影在线 | 最新成人在线 | 成av人电影| 国产精品综合在线 | 香蕉久久久久久久 | 涩涩网站在线播放 | 狠狠躁日日躁狂躁夜夜躁 | 欧美一二三区播放 | 中文字幕视频一区 | 波多野结衣电影一区二区三区 | 国产无区一区二区三麻豆 | 综合激情av | 狠狠色综合网站久久久久久久 | 夜夜嗨av色一区二区不卡 | 日本韩国精品在线 | 97在线成人| 911精品视频 | 久久国产精品区 | 91九色在线播放 | 91高清完整版在线观看 | 日韩av手机在线看 | 欧美日韩国产色综合一二三四 | 国产视频 久久久 | 午夜视频免费 | www.色五月| 久久国产免 | 色av男人的天堂免费在线 | 97超在线 | 91视频高清 | 亚欧日韩av | 国产日韩中文字幕在线 | 超碰97中文 | 国产精品一区二区三区视频免费 | 青青看片| 99热在线这里只有精品 | 久久久久精 | 操处女逼 | 在线亚洲观看 | av动图| 亚洲欧美日韩一级 | 久久久综合电影 | 亚洲成人av一区 | 久久人人爽人人人人片 | 亚洲va欧洲va国产va不卡 | 天天射综合网站 | 日日狠狠 | 成人教育av| 欧美人交a欧美精品 | 日本最新高清不卡中文字幕 | 狠狠干夜夜 | 91免费日韩 | 免费欧美精品 | 久久精品日产第一区二区三区乱码 | 国产成人精品日本亚洲999 | 97在线免费视频观看 | 亚洲欧美成aⅴ人在线观看 四虎在线观看 | 国产精品久久久久久一区二区 | 天天色天天草天天射 | 天天艹天天操 | 91人人干 | 亚洲国产精品成人av | 狠狠操.com| 蜜臀久久99精品久久久久久网站 | av在线小说 | 黄网av在线 | 日韩久久视频 | 亚洲午夜不卡 | av一本久道久久波多野结衣 | 日韩av成人在线观看 | 在线之家免费在线观看电影 | 99热在线观看 | 久久久久久久免费看 | 免费观看全黄做爰大片国产 | 在线观看视频国产 | 日韩av在线资源 | 色中色亚洲 | 免费观看午夜视频 | 亚洲激情精品 | 久久亚洲电影 | 成人在线视频观看 | 免费三级黄色片 | 日韩欧美综合 | 国产最新在线视频 | 国产一区在线播放 | 97超碰免费在线观看 | 97在线观看免费高清完整版在线观看 | 免费一级黄色 | 久久你懂的| 96亚洲精品久久 | 国产在线永久 | 高清国产午夜精品久久久久久 | 欧美伦理电影一区二区 | 奇米影视8888在线观看大全免费 | 亚洲在线不卡 | 午夜视频黄 | 中文字幕一区二区三区久久蜜桃 | 综合色天天 | 精品一区二区精品 | 91在线播放综合 | 国产精品自产拍在线观看 | 在线激情电影 | 久草视频免费播放 | 欧美在线视频一区二区三区 | 日韩成人欧美 | 五月婷婷另类国产 | 91超在线 | 国产福利91精品一区二区三区 | 97国产大学生情侣酒店的特点 | 久久午夜免费视频 | 亚洲国产综合在线 | 99精品欧美一区二区蜜桃免费 | 波多野结衣视频一区二区三区 | 伊人色播 | 丝袜美腿在线视频 | 成人av午夜 | 欧美精品久久久久久久亚洲调教 | 国产看片免费 | 久久久免费观看视频 | 91在线视频网址 | 亚洲综合一区二区精品导航 | 园产精品久久久久久久7电影 | av在线播放中文字幕 | 91一区二区三区久久久久国产乱 | 草久电影| 999视频网 | 手机在线看a | 久久电影网站中文字幕 | 久久99久久99免费视频 | 在线观看av网 | 高清不卡毛片 | www色网站| 欧美在线视频一区二区三区 | 2019av在线视频 | 伊人小视频| 伊人五月婷 | 久久午夜国产精品 | 色综合狠狠干 | 国产精品成人一区二区三区 | av中文字幕第一页 | 色老板在线视频 | 亚洲精品国产自产拍在线观看 | 久久伦理| 狠狠躁夜夜躁人人爽超碰97香蕉 | 97色狠狠 | 日韩av中文字幕在线免费观看 | 99精品视频一区二区 | 成年人在线播放视频 | 色妞久久福利网 | 亚洲国产午夜 | 国产无遮挡猛进猛出免费软件 | 日韩一区精品 | 91精彩视频 | 少妇bbw搡bbbb搡bbb | 国产精品一区二区久久久久 | 国内精品视频久久 | 日韩精品首页 | 国产成人精品一区二区三区福利 | 久久精品视频在线观看免费 | 国内精品视频免费 | 97国产在线 | 热久久最新地址 | 亚洲一级电影视频 | 国产无遮挡又黄又爽在线观看 | 808电影| 高清av中文在线字幕观看1 | 婷婷亚洲综合五月天小说 | 一级特黄aaa大片在线观看 | 黄色亚洲精品 | 五月天九九 | 夜夜夜夜猛噜噜噜噜噜初音未来 | 国产黄色在线看 | 成人av免费在线观看 | 中文字幕无吗 | av在线短片| 日本久久久精品视频 | 最近中文字幕视频完整版 | 成人免费在线电影 | 超碰日韩| 天天操天天吃 | 黄色成品视频 | 亚洲精品美女在线 | 狠狠色狠狠色综合日日92 | www.色五月.com| 91中文字幕 | 91av蜜桃 | 久热色超碰 | 成人黄色免费在线观看 | 欧美精品视 | a级国产乱理论片在线观看 特级毛片在线观看 | 日韩精品一区在线观看 | 亚洲精品国产精品99久久 | 午夜精品一区二区三区在线观看 | 69av视频在线观看 | 亚洲免费国产 | 又黄又爽又无遮挡免费的网站 | 天天曰夜夜爽 | 视频二区| 国产精品手机播放 | 99精品视频99 | 国产精品美女毛片真酒店 | 手机看片午夜 | 中文字幕在线不卡国产视频 | 日韩免费av片 | 91精品91| 91麻豆精品国产午夜天堂 | 久久婷婷视频 | 国产精品久久久久久久久久久久冷 | 欧洲视频一区 | 国内精品视频免费 | 国产一区二区三区四区大秀 | 99精品视频在线免费观看 | 日韩亚洲在线视频 | 久久调教视频 | 五月天亚洲婷婷 | 亚洲精品色婷婷 | 精品国产成人在线 | 免费网站黄| 97精产国品一二三产区在线 | 国产伦精品一区二区三区高清 | 精品国产精品一区二区夜夜嗨 | 韩国中文三级 | 日韩欧美第二页 | 日韩午夜网站 | 激情综合色综合久久综合 | 一级α片免费看 | 又黄又爽又无遮挡免费的网站 | a级片网站| 国产无遮挡又黄又爽在线观看 | 麻豆国产精品永久免费视频 | 久草在线视频首页 | 超碰在线资源 | 国产一区二区高清 | 国产黄色精品在线观看 | 天天干,天天射,天天操,天天摸 | 国产1区2区3区精品美女 | 欧美日韩国产在线一区 | 午夜色影院 | 日韩在线首页 | 99精品视频网| 亚洲一区动漫 | 中文字幕av在线免费 | 国产高清av免费在线观看 | 999电影免费在线观看 | 国产97视频在线 | 五月天婷婷在线观看视频 | 中文字幕视频网站 | 国产精品白浆 | 欧美在线视频一区二区 | 欧美日韩视频在线观看一区二区 | 中文字幕在线色 | 国产亚洲无 | 国产在线国偷精品产拍 | 在线观看av不卡 | 亚洲视频免费在线观看 | 狠狠躁夜夜a产精品视频 | 不卡av在线免费观看 | 免费av视屏 | 国产69久久精品成人看 | 欧美视频18| 久久久国产影视 | 亚洲午夜久久久久 | 亚洲国产一区av | 9在线观看免费高清完整版在线观看明 | 精品久久久久久久久久久久久久久久久久 | 丁香色婷 | 欧美另类xxxx | 国产黄色片免费看 | 国产精品一区二区精品视频免费看 | 久久在线电影 | 激情久久综合 | 欧洲亚洲国产视频 | 国产爽妇网 | 一级a性色生活片久久毛片波多野 | 日日爽天天 | 99久久精品国产亚洲 | 亚洲情影院| 色欧美日韩 | 天天视频色 | 96av在线| 国产一区免费观看 | 91在线公开视频 | 久久激情视频 | 日本精品久久久一区二区三区 | 亚洲一区二区黄色 | 天天曰夜夜操 | 一本一道久久a久久精品 | 免费看国产曰批40分钟 | 国产美女精品在线 | 国产在线中文 | 中文字幕在线免费 | 欧美亚洲国产精品久久高清浪潮 | 伊人五月天 | 五月婷婷一区二区三区 | 色视频在线观看 | 三级av中文字幕 | 女人久久久久 | 成人h视频| av成人黄色 | 国产日韩精品在线观看 | 国精产品满18岁在线 | 中文字幕在线网 | 亚洲国产欧美一区二区三区丁香婷 | 国产高清在线免费 | 免费高清在线视频一区· | 黄色免费大全 | 久久私人影院 | 亚洲综合欧美激情 | 99久久99久久精品国产片果冰 | 18国产精品白浆在线观看免费 | 久久人人干 | 99精品电影| 久久综合狠狠综合久久综合88 | 亚洲精品乱码久久久久久高潮 | 九九久久免费视频 | 国产综合片 | 欧美一级性生活视频 | 亚洲国产成人精品在线 | 特级西西人体444是什么意思 | 国产精品短视频 | 97国产大学生情侣酒店的特点 | 日韩欧三级 | 久草在线播放视频 | 午夜12点 | 精品国产电影一区二区 | 亚洲综合欧美激情 | 麻豆视频免费网站 | 九九九九九国产 | 中文字幕日韩免费视频 | 91精品一区二区在线观看 | 精品国产免费av | 日韩精品欧美一区 | 免费中文字幕在线观看 | 亚洲黄色av| 在线免费黄网站 | 国产精品久久久久久久久免费 | 在线黄色av电影 | 色网免费观看 | 天天操天天操天天爽 | 久久国产露脸精品国产 | 91av在线视频播放 | 国产一区二区三区免费视频 | 日日夜夜91 | 久草精品视频 | 久久超碰97 | 人人玩人人爽 | 丝袜制服综合网 | 丁香九月婷婷综合 | 中文字幕之中文字幕 | 日本在线观看中文字幕 | 国产精品久久久久三级 | 91在线成人 | 国产五码一区 | 成 人 a v天堂| 中文字幕av免费在线观看 | av中文资源在线 | 狠狠狠色丁香综合久久天下网 | 精品久久亚洲 | 在线观看免费av片 | 一区二区精 | 国产一区自拍视频 | 中文字幕五区 | 久久久久99精品成人片三人毛片 | 在线播放av网址 | 天天干,夜夜爽 | 99久久精品久久亚洲精品 | 在线电影91| 六月丁香色婷婷 | 丁香一区二区 | 国产成本人视频在线观看 | 园产精品久久久久久久7电影 | 五月天伊人网 | 亚洲在线视频观看 | 最新99热 | 国产黄色片在线 | 亚洲三级影院 | 在线观看视频中文字幕 | 日韩sese| 亚洲精品视频在线观看免费视频 | 丁香六月网 | 免费成人av电影 | 成片人卡1卡2卡3手机免费看 | 亚洲精品456在线播放乱码 | 久久免费成人精品视频 | 国内精品久久久久影院一蜜桃 | 九九九九九国产 | 日本性xxx | 在线观看黄色国产 | 国产精品黄色 | 久热色超碰 | 国产精品av在线 | 午夜精品一二三区 | 亚洲人人爱| 日韩理论在线 | 99精品视频在线观看播放 | 日日夜夜天天操 | 国产麻豆电影在线观看 | 青草视频在线看 | 国产精品一区二区三区四区在线观看 | 国产一区二区综合 | 精品99免费视频 | 视频三区 | 亚州欧美视频 | 欧美一级电影免费观看 | 久久免费高清视频 | 国产69精品久久久久久 | 91丨九色丨勾搭 | 视频国产在线观看18 | 久久婷婷视频 | 久久久wwww | 成人97视频一区二区 | 亚洲成人国产 | 色视频网站在线观看一=区 a视频免费在线观看 | 欧美视频xxx | 美女视频久久久 | 天天干夜夜干 | 亚洲欧洲国产精品 | 视频一区二区免费 | 成年人电影免费在线观看 | 欧美性成人 | 美国av片在线观看 | 中文字幕在线观看视频一区 | 日本激情中文字幕 | 激情视频亚洲 | 欧美成人播放 | 99精品视频在线观看免费 | 一区二区免费不卡在线 | 999久久久国产精品 高清av免费观看 | 欧美精品二 | 亚洲精品播放 | 国产亚洲精品美女 | 黄色的片子 | 国产91在线观看 | 91香蕉久久| 久久久精品国产一区二区三区 | 日日夜夜干 | 97视频免费| 欧美色综合 | 欧美另类网站 | 中文字幕色网站 | 高清中文字幕 | 国产午夜视频在线观看 | 在线影院av| 中文字幕欧美激情 | 亚洲午夜精品电影 | 黄色不卡av | 久久久久久久久久网站 | 激情欧美一区二区免费视频 | 亚洲精品tv | 久久久91精品国产 | 91在线观看视频网站 | 久久人人爽人人爽人人片av软件 | 国产老太婆免费交性大片 | 日韩欧美一区二区三区免费观看 | 九九久 | 日本精品久久久久 | 久久久精品成人 | 狠狠操夜夜操 | 国产黄色成人av | 久久艹影院 | 四虎影视www | 成人一区二区三区中文字幕 | 999电影免费在线观看 | 国产一区二区在线免费 | 欧美另类高清 videos | 在线中文字幕电影 | 人人超碰免费 | 97夜夜澡人人爽人人免费 | 亚洲欧洲一区二区在线观看 | 黄色h在线观看 | 国产色婷婷在线 | 天天操天天射天天爱 | 天天干 天天摸 天天操 | 999国产精品视频 | 亚洲成a人片在线观看中文 中文字幕在线视频第一页 狠狠色丁香婷婷综合 | 91色在线观看 | 欧美日韩免费在线视频 | 在线你懂的视频 | av成人免费在线观看 | 亚洲欧洲精品一区 | 人人爽人人爽人人 | 免费观看一级特黄欧美大片 | 久久久久久久福利 | 久在线观看 | 丁香国产视频 | 99爱爱 | 正在播放国产一区 | 欧美日一级片 | 日韩欧美一区二区不卡 | 日韩 在线a | 久久九九精品 | 91久久精品一区 | 日韩中文在线视频 | 日本不卡一区二区三区在线观看 | 人人澡澡人人 | 免费欧美精品 | 久久久影院一区二区三区 | 日韩久久久久久久久 | 97超碰免费在线 | 久久这里有| av在线超碰 | 不卡中文字幕在线 | 亚洲在线成人精品 | av色影院 | 91最新地址永久入口 | 欧美影片 | 91亚洲国产成人 | 色网站黄| 蜜臀av性久久久久蜜臀aⅴ四虎 | 久久久久久网站 | 成 人 黄 色 片 在线播放 | 日韩一区二区三 | 蜜桃视频精品 | 久久久久久久久久久久久国产精品 | 国产精品成人av在线 | 天天综合网久久 | 国产精品一区二区精品视频免费看 | 99在线精品视频在线观看 | 欧美精品一区二区在线播放 | 欧美一区日韩一区 | 国产高h视频 | 精品专区一区二区 | 日韩影视在线观看 | 国产精品一区在线观看 | 在线观看免费一区 | 国产色影院 | 久久草在线精品 | 色搞搞 | 日韩大片在线免费观看 | 中文在线最新版天堂 | 2020天天干天天操 | 我要看黄色一级片 | 五月天久久久久久 | 不卡的av在线| 97看片吧 | 超碰av在线免费观看 | 在线观看一级 | 国产原创在线 | 日韩精品短视频 | 91精品欧美一区二区三区 | 麻豆一二三精选视频 | 日韩精品在线免费观看 | 插久久| 97人人精品| 蜜臀一区二区三区精品免费视频 | 狠狠躁夜夜a产精品视频 | 亚洲午夜激情网 | 国产精品日韩在线观看 | 亚洲成人av一区 | 日日操日日干 | 成人资源网 | 精品二区久久 | 亚洲乱码精品久久久 | 亚洲成人午夜av | 91在线一区二区 | 天天操天天操天天操 | 91网站观看| 欧美一区二区日韩一区二区 | av免费电影在线 | 日韩av一区二区三区在线观看 | av丝袜在线 | 久久久久久免费毛片精品 | 毛片永久免费 | 成人av资源网 | 天天天操操操 | 中文字幕在线播放日韩 | 免费在线观看日韩视频 | 国产一区二区不卡视频 | 在线 高清 中文字幕 | 国产精品区二区三区日本 | 91精品婷婷国产综合久久蝌蚪 | 久久99精品久久久久婷婷 | 日韩免费观看一区二区三区 | 亚洲国产精品va在线看 | 精品福利av| 成人小视频在线观看免费 | 日韩午夜在线播放 | 欧美国产一区二区 | 五月婷婷国产 | 成人福利在线观看 | 久久精品国产成人 | 国产成人精品一区二区三区免费 | 精品久久久久久久久中文字幕 | 久草久热| 夜色在线资源 | 色综合久久88 | 久久视频网 | 99精品国产aⅴ | 亚洲国产精品影院 | 黄色片网站av | 欧美日产一区 | 国产精品嫩草影院123 | 欧美综合国产 | 日韩视频免费 | 日韩在线视频网 | 天天操网 | 99精品国产免费久久久久久下载 | 国产小视频在线免费观看视频 | 超碰九九 | 国产精品久久久久影院日本 | 国产午夜精品一区二区三区 | 国产精品日韩在线 | 国产成人av| 久久激情婷婷 | 成年人精品 | 六月丁香综合 | 一区二区三区视频在线 | 精品免费观看视频 | 国产成人精品久久久久蜜臀 | 免费在线视频一区二区 | 久久99电影 | 日韩夜夜爽 | 国产一区二区三区在线免费观看 | 丁香婷五月 | 欧美日韩一区二区在线观看 | 久久久夜色 | 中文在线8新资源库 | 欧美激情精品久久久久久免费印度 | 国产第一页福利影院 | 亚洲色图色 | 97超碰香蕉 | 在线观看小视频 | 久久99在线观看 | 999日韩| 女女av在线| 男女激情麻豆 | 在线观看中文字幕 | 播五月婷婷| .精品久久久麻豆国产精品 亚洲va欧美 | a天堂最新版中文在线地址 久久99久久精品国产 | 日韩高清精品一区二区 | 国产伦理一区 | 久久精品中文视频 | 国产一级片在线播放 | 久久与婷婷 | 麻豆视频在线观看免费 | 黄色免费在线视频 | 超碰国产在线观看 | 国产成人精品国内自产拍免费看 | 国产一级视屏 | 草久久精品 | 成人精品视频久久久久 | 特级片免费看 | 美女黄久久 | 九九99视频| 9热精品 | 国产日韩在线一区 | 久久免费视频3 | 成人激情开心网 | 久久午夜精品视频 | 日p视频在线观看 | 精品一区二区免费视频 | 天天射综合网视频 | 天天爽天天搞 | 国产精品成人免费精品自在线观看 | 国产男女无遮挡猛进猛出在线观看 | 日韩在线观看第一页 | 久久99久国产精品黄毛片入口 | 天天干天天操天天搞 | 黄色免费网 | 激情校园亚洲 | 香蕉日日 | 欧美日韩中文视频 | 91视频88av| 99精品免费 | 欧美日韩在线播放 | 天天做日日爱夜夜爽 | 国产五月婷 | 天天爱天天色 | 国产一在线精品一区在线观看 | 尤物97国产精品久久精品国产 | 亚洲精品久久久久999中文字幕 | 国产女人40精品一区毛片视频 | 日韩mv欧美mv国产精品 | 欧美视频日韩 | 久久综合九色综合97_ 久久久 | 在线免费av网站 | 97热在线观看 | 欧美精品成人在线 | 毛片网在线| 免费看国产视频 | 精品视频成人 | 国内99视频| 天天草天天操 | 亚洲日本va午夜在线影院 | 国内三级在线观看 | 午夜av大片 | 久草视频免费观 | 久久夜夜爽 | 成人福利在线 | 久久精品99精品国产香蕉 | 婷婷激情综合网 | 亚洲精品在线视频 | 狠狠网站| 九九爱免费视频 | 国产精品网红直播 | 亚洲精品玖玖玖av在线看 | 婷婷久久丁香 | 久久伊人八月婷婷综合激情 | 九色精品免费永久在线 | 国产最新视频在线观看 | 美女黄视频免费看 | 天天爱天天操天天射 | 日本精品视频在线播放 | 一区二区三区高清在线 | 日韩欧三级 | 日韩高清在线一区二区 | 国产日韩欧美在线影视 | 99视频久久| 午夜10000 | 一区视频在线 | av资源网在线播放 | 国产无吗一区二区三区在线欢 | 香蕉影视app | 97电影在线看视频 | 亚洲激情视频在线 | 色综合久久综合网 | 久久av中文字幕片 | 久久中文欧美 | 狠狠成人| 久草免费在线观看视频 | 麻花天美星空视频 | 久久精品99国产国产 | 久久婷婷视频 | 免费观看国产精品视频 | 欧美日韩精品在线一区二区 | 亚洲精品高清视频在线观看 | 婷婷新五月 | 欧美a视频在线观看 | av网站在线观看免费 | 亚洲视频在线观看免费 | 一区二区三区精品在线视频 | 国产免费黄视频在线观看 | 9在线观看免费 | 99久久精品国产毛片 | 精品国产自在精品国产精野外直播 | 天天综合网久久 | 91在线小视频| 亚洲 欧美 变态 国产 另类 | 色a资源在线 | 黄色免费网站下载 | 亚洲国产精品成人精品 | 欧美另类xxxx | 91九色视频在线 | 一区二区三区四区在线免费观看 | 狠狠狠狠狠狠 | 99视频+国产日韩欧美 | 日韩欧美精品在线 | 亚洲人天堂 | 日韩精品久久一区二区 | 久久成人免费视频 | 欧美永久视频 | 午夜视频在线网站 | 国产淫片免费看 | 俺要去色综合狠狠 | 极品国产91在线网站 | 国产精品丝袜在线 | 欧美福利视频一区 | 玖玖在线免费视频 | 久久成人免费视频 | 国产在线国偷精品产拍 | 亚洲日本激情 | 五月婷婷六月丁香激情 | 欧美 日韩 成人 | 国产一二区视频 | 亚洲午夜精| 毛片网在线观看 | av在线在线 | 日韩在线观看视频在线 | 国产成人久久精品 | 国产91精品看黄网站在线观看动漫 | 国产91精品在线观看 | 麻豆你懂的 | 五月天激情视频 | 黄色三级视频片 | 日本高清免费中文字幕 | 天天曰天天 | 久草免费色站 | 狠狠色丁香婷婷综合久小说久 | 国产精品一区二区久久精品爱涩 | 天天鲁天天干天天射 | 黄色av电影网 | 亚洲精品456在线播放 | 日韩在线第一 | 黄色视屏av| 六月色婷婷 | 亚洲 欧美 变态 国产 另类 | 91免费网站在线观看 | 91av久久| 狠狠狠狠狠干 | 精品久久99| 免费精品在线 | 国产一区二区免费看 | 亚洲欧洲在线视频 | 日本三级在线观看中文字 | 国产高清区 | 久草在线资源视频 | 狠狠干综合 | 四虎最新入口 | 免费成人黄色片 | www激情久久 | 亚洲国产精品成人va在线观看 | 国产无区一区二区三麻豆 | 在线国产精品视频 | 久草在线综合网 | 久久情爱 | 国产性天天综合网 | 国产精品四虎 | 久久精品三级 | 九九av| 国产久视频| 国产一级二级三级在线观看 | 999久久国精品免费观看网站 | 五月天网页 | 久久精品草 | 亚洲欧洲精品一区二区精品久久久 | 成年人免费看 | 伊人色综合久久天天网 | 亚州日韩中文字幕 | 久久国产综合视频 | 91成人短视频在线观看 | 在线观看免费黄视频 | 成人性生交大片免费看中文网站 | 在线视频 亚洲 | 亚洲综合精品在线 | 最近日本字幕mv免费观看在线 | 免费国产在线精品 | 性色av免费观看 | 超碰97.com| 欧美精品色 | 国产区精品视频 | 91视频免费网址 | 亚洲激情校园春色 | 999成人 | 久久成人免费视频 | 中文字幕资源在线观看 | 国产精品va最新国产精品视频 | 成人国产精品一区二区 | 日本中文字幕电影在线免费观看 | 久久成人综合视频 | 在线观看亚洲成人 | 最新av观看 | 国产女v资源在线观看 | 四虎影视成人精品 | 蜜臀久久99精品久久久久久网站 | 91在线操| 97视频人人澡人人爽 | av线上免费看 | 中文字幕在线观看一区二区 | 国产精品视频永久免费播放 | 免费网站在线观看成人 | 成人av观看| 精品亚洲欧美一区 | 色av色av色av| 欧美夫妻生活视频 | 免费中文字幕在线观看 | 精品亚洲成a人在线观看 | 国产精品区在线观看 | 亚洲视屏在线播放 | 在线观看91av | 久久综合一本 | 免费av大片| 97av免费视频 | 亚洲国产精品va在线看黑人 | 久草在线免费看视频 | 国产精品久久久久久一区二区 | 国产日韩精品一区二区 | 国产999精品久久久久久绿帽 | 免费观看一区二区三区视频 | 欧美影片| 麻豆国产精品va在线观看不卡 | av在线一| 四虎亚洲精品 | 三级黄色片在线观看 | 99精品国自产在线 | 91污污 | 久久99精品国产麻豆宅宅 | 伊人国产女 | 亚洲日本va午夜在线电影 | 狠狠狠狠狠狠干 | 成人在线你懂得 | 一区 二区 精品 | 亚洲永久精品视频 | 中文 一区二区 | 亚洲作爱视频 | 久草在线视频免赞 | www视频免费在线观看 | 久久综合之合合综合久久 | 欧美一级视频在线观看 | 网站你懂的 | 久久99在线 |