日韩av黄I国产麻豆传媒I国产91av视频在线观看I日韩一区二区三区在线看I美女国产在线I麻豆视频国产在线观看I成人黄色短片

歡迎訪問 生活随笔!

生活随笔

當(dāng)前位置: 首頁 > 编程资源 > 编程问答 >内容正文

编程问答

Datawhale组队学习-NLP新闻文本分类-TASK06

發(fā)布時間:2023/12/14 编程问答 33 豆豆
生活随笔 收集整理的這篇文章主要介紹了 Datawhale组队学习-NLP新闻文本分类-TASK06 小編覺得挺不錯的,現(xiàn)在分享給大家,幫大家做個參考.

Task6 基于深度學(xué)習(xí)的文本分類3

基于深度學(xué)習(xí)的文本分類

學(xué)習(xí)目標(biāo)

  • 了解Transformer的原理和基于預(yù)訓(xùn)練語言模型(Bert)的詞表示
  • 學(xué)會Bert的使用,具體包括pretrain和finetune

文本表示方法Part4

Transformer原理

Transformer是在"Attention is All You Need"中提出的,模型的編碼部分是一組編碼器的堆疊(論文中依次堆疊六個編碼器),模型的解碼部分是由相同數(shù)量的解碼器的堆疊。

我們重點關(guān)注編碼部分。他們結(jié)構(gòu)完全相同,但是并不共享參數(shù),每一個編碼器都可以拆解成兩部分。在對輸入序列做詞的向量化之后,它們首先流過一個self-attention層,該層幫助編碼器在它編碼單詞的時候能夠看到輸入序列中的其他單詞。self-attention的輸出流向一個前向網(wǎng)絡(luò)(Feed Forward Neural Network),每個輸入位置對應(yīng)的前向網(wǎng)絡(luò)是獨立互不干擾的。最后將輸出傳入下一個編碼器。

這里能看到Transformer的一個關(guān)鍵特性,每個位置的詞僅僅流過它自己的編碼器路徑。在self-attention層中,這些路徑兩兩之間是相互依賴的。前向網(wǎng)絡(luò)層則沒有這些依賴性,但這些路徑在流經(jīng)前向網(wǎng)絡(luò)時可以并行執(zhí)行。

Self-Attention中使用多頭機制,使得不同的attention heads所關(guān)注的的部分不同。

編碼"it"時,一個attention head集中于"the animal",另一個head集中于“tired”,某種意義上講,模型對“it”的表達(dá)合成了的“animal”和“tired”兩者。

對于自注意力的詳細(xì)計算,歡迎大家參考Jay Alammar關(guān)于Transformer的博客,這里不再展開。

除此之外,為了使模型保持單詞的語序,模型中添加了位置編碼向量。如下圖所示,每行對應(yīng)一個向量的位置編碼。因此,第一行將是我們要添加到輸入序列中第一個單詞的嵌入的向量。每行包含512個值—每個值都在1到-1之間。因為左側(cè)是用sine函數(shù)生成,右側(cè)是用cosine生成,所以可以觀察到中間顯著的分隔。

編碼器結(jié)構(gòu)中值得提出注意的一個細(xì)節(jié)是,在每個子層中(Self-attention, FFNN),都有殘差連接,并且緊跟著layer-normalization。如果我們可視化向量和LayerNorm操作,將如下所示:

基于預(yù)訓(xùn)練語言模型的詞表示

基于預(yù)訓(xùn)練語言模型的詞表示由于可以建模上下文信息,進而解決傳統(tǒng)靜態(tài)詞向量不能建模“一詞多義”語言現(xiàn)象的問題。最早提出的ELMo基于兩個單向LSTM,將從左到右和從右到左兩個方向的隱藏層向量表示拼接學(xué)習(xí)上下文詞嵌入。而GPT用Transformer代替LSTM作為編碼器,首先進行了語言模型預(yù)訓(xùn)練,然后在下游任務(wù)微調(diào)模型參數(shù)。但GPT由于僅使用了單向語言模型,因此難以建模上下文信息。為了解決以上問題,研究者們提出了BERT,BERT模型結(jié)構(gòu)如下圖所示,它是一個基于Transformer的多層Encoder,通過執(zhí)行一系列預(yù)訓(xùn)練,進而得到深層的上下文表示。

ELMo論文題目中Deep是指雙向雙層LSTM,而更關(guān)鍵的在于context。傳統(tǒng)方法生成的單詞映射表的形式,即先為每個單詞生成一個靜態(tài)的詞向量,之后這個單詞的表示就被固定住了,不會跟著上下文的變化而做出改變。事實上,由于一詞多義的語言現(xiàn)象,靜態(tài)詞向量是有很大的弊端的。以bank為例,如果訓(xùn)練語料的足夠大,事先學(xué)好的詞向量中混雜著所有的語義。而當(dāng)下游應(yīng)用時,即使在新句子中,bank的上下文里包含money等詞,我們基本可以確定bank是“銀行”的語義而不是在其他上下文中的“河床”的語義,但是由于靜態(tài)詞向量不能跟隨上下文而進行變化,所以bank的表示中還是混雜著多種語義。為了解決這一問題,ELMo首先進行了語言模型預(yù)訓(xùn)練,然后在下游任務(wù)中動態(tài)調(diào)整Word Embedding,因此最后輸出的詞表示能夠充分表達(dá)單詞在上下文中的特定語義,進而解決一詞多義的問題。

GPT來自于openai,是一種生成式預(yù)訓(xùn)練模型。GPT 除了將ELMo中的LSTM替換為Transformer 的Encoder外,更開創(chuàng)了NLP界基于預(yù)訓(xùn)練-微調(diào)的新范式。盡管GPT采用的也是和ELMo相同的兩階段模式,但GPT在第一個階段并沒有采取ELMo中使用兩個單向雙層LSTM拼接的結(jié)構(gòu),而是采用基于自回歸式的單向語言模型。

Google在NAACL 2018發(fā)表的論文中提出了BERT,與GPT相同,BERT也采用了預(yù)訓(xùn)練-微調(diào)這一兩階段模式。但在模型結(jié)構(gòu)方面,BERT采用了ELMO的范式,即使用雙向語言模型代替GPT中的單向語言模型,但是BERT的作者認(rèn)為ELMo使用兩個單向語言模型拼接的方式太粗暴,因此在第一階段的預(yù)訓(xùn)練過程中,BERT提出掩碼語言模型,即類似完形填空的方式,通過上下文來預(yù)測單詞本身,而不是從右到左或從左到右建模,這允許模型能夠自由地編碼每個層中來自兩個方向的信息。而為了學(xué)習(xí)句子的詞序關(guān)系,BERT將Transformer中的三角函數(shù)位置表示替換為可學(xué)習(xí)的參數(shù),其次為了區(qū)別單句和雙句輸入,BERT還引入了句子類型表征。BERT的輸入如圖所示。此外,為了充分學(xué)習(xí)句子間的關(guān)系,BERT提出了下一個句子預(yù)測任務(wù)。具體來說,在訓(xùn)練時,句子對中的第二個句子有50%來自與原有的連續(xù)句子,而其余50%的句子則是通過在其他句子中隨機采樣。同時,消融實驗也證明,這一預(yù)訓(xùn)練任務(wù)對句間關(guān)系判斷任務(wù)具有很大的貢獻。除了模型結(jié)構(gòu)不同之外,BERT在預(yù)訓(xùn)練時使用的無標(biāo)簽數(shù)據(jù)規(guī)模要比GPT大的多。

在第二階段,與GPT相同,BERT也使用Fine-Tuning模式來微調(diào)下游任務(wù)。如下圖所示,BERT與GPT不同,它極大的減少了改造下游任務(wù)的要求,只需在BERT模型的基礎(chǔ)上,通過額外添加Linear分類器,就可以完成下游任務(wù)。具體來說,對于句間關(guān)系判斷任務(wù),與GPT類似,只需在句子之間加個分隔符,然后在兩端分別加上起始和終止符號。在進行輸出時,只需把句子的起始符號[CLS]在BERT最后一層中對應(yīng)的位置接一個Softmax+Linear分類層即可;對于單句分類問題,也與GPT類似,只需要在句子兩段分別增加起始和終止符號,輸出部分和句間關(guān)系判斷任務(wù)保持一致即可;對于問答任務(wù),由于需要輸出答案在給定段落的起始和終止位置,因此需要先將問題和段落按照句間關(guān)系判斷任務(wù)構(gòu)造輸入,輸出只需要在BERT最后一層中第二個句子,即段落的每個單詞對應(yīng)的位置上分別接判斷起始和終止位置的分類器;最后,對于NLP中的序列標(biāo)注問題,輸入與單句分類任務(wù)一致,不同的是在BERT最后一層中每個單詞對應(yīng)的位置上接分類器即可。

更重要的是,BERT開啟了NLP領(lǐng)域“預(yù)訓(xùn)練-微調(diào)”這種兩階段的全新范式。在第一階段首先在海量無標(biāo)注文本上預(yù)訓(xùn)練一個雙向語言模型,這里特別值得注意的是,將Transformer作為特征提取器在解決并行性和長距離依賴問題上都要領(lǐng)先于傳統(tǒng)的RNN或者CNN,通過預(yù)訓(xùn)練的方式,可以將訓(xùn)練數(shù)據(jù)中的詞法、句法、語法知識以網(wǎng)絡(luò)參數(shù)的形式提煉到模型當(dāng)中,在第二階段使用下游任務(wù)的數(shù)據(jù)Fine-tuning不同層數(shù)的BERT模型參數(shù),或者把BERT當(dāng)作特征提取器生成BERT Embedding,作為新特征引入下游任務(wù)。這種兩階段的全新范式盡管是來自于計算機視覺領(lǐng)域,但是在自然語言處理領(lǐng)域一直沒有得到很好的運用,而BERT作為近些年NLP突破性進展的集大成者,最大的亮點可以說不僅在于模型性能好,并且?guī)缀跛蠳LP任務(wù)都可以很方便地基于BERT進行改造,進而將預(yù)訓(xùn)練學(xué)到的語言學(xué)知識引入下游任務(wù),進一步提升模型的性能。

基于Bert的文本分類

Bert Pretrain

預(yù)訓(xùn)練過程使用了Google基于Tensorflow發(fā)布的BERT源代碼。首先從原始文本中創(chuàng)建訓(xùn)練數(shù)據(jù),由于本次比賽的數(shù)據(jù)都是ID,這里重新建立了詞表,并且建立了基于空格的分詞器。

class WhitespaceTokenizer(object):"""WhitespaceTokenizer with vocab."""def __init__(self, vocab_file):self.vocab = load_vocab(vocab_file)self.inv_vocab = {v: k for k, v in self.vocab.items()}def tokenize(self, text):split_tokens = whitespace_tokenize(text)output_tokens = []for token in split_tokens:if token in self.vocab:output_tokens.append(token)else:output_tokens.append("[UNK]")return output_tokensdef convert_tokens_to_ids(self, tokens):return convert_by_vocab(self.vocab, tokens)def convert_ids_to_tokens(self, ids):return convert_by_vocab(self.inv_vocab, ids)

預(yù)訓(xùn)練由于去除了NSP預(yù)訓(xùn)練任務(wù),因此將文檔處理多個最大長度為256的段,如果最后一個段的長度小于256/2則丟棄。每一個段執(zhí)行按照BERT原文中執(zhí)行掩碼語言模型,然后處理成tfrecord格式。

def create_segments_from_document(document, max_segment_length):"""Split single document to segments according to max_segment_length."""assert len(document) == 1document = document[0]document_len = len(document)index = list(range(0, document_len, max_segment_length))other_len = document_len % max_segment_lengthif other_len > max_segment_length / 2:index.append(document_len)segments = []for i in range(len(index) - 1):segment = document[index[i]: index[i+1]]segments.append(segment)return segments

在預(yù)訓(xùn)練過程中,也只執(zhí)行掩碼語言模型任務(wù),因此不再計算下一句預(yù)測任務(wù)的loss。

(masked_lm_loss, masked_lm_example_loss, masked_lm_log_probs) = get_masked_lm_output(bert_config, model.get_sequence_output(), model.get_embedding_table(),masked_lm_positions, masked_lm_ids, masked_lm_weights)total_loss = masked_lm_loss

為了適配句子的長度,以及減小模型的訓(xùn)練時間,我們采取了BERT-mini模型,詳細(xì)配置如下。

{"hidden_size": 256,"hidden_act": "gelu","initializer_range": 0.02,"vocab_size": 5981,"hidden_dropout_prob": 0.1,"num_attention_heads": 4,"type_vocab_size": 2,"max_position_embeddings": 256,"num_hidden_layers": 4,"intermediate_size": 1024,"attention_probs_dropout_prob": 0.1 }

由于我們的整體框架使用Pytorch,因此需要將最后一個檢查點轉(zhuǎn)換成Pytorch的權(quán)重。

def convert_tf_checkpoint_to_pytorch(tf_checkpoint_path, bert_config_file, pytorch_dump_path):# Initialise PyTorch modelconfig = BertConfig.from_json_file(bert_config_file)print("Building PyTorch model from configuration: {}".format(str(config)))model = BertForPreTraining(config)# Load weights from tf checkpointload_tf_weights_in_bert(model, config, tf_checkpoint_path)# Save pytorch-modelprint("Save PyTorch model to {}".format(pytorch_dump_path))torch.save(model.state_dict(), pytorch_dump_path)

預(yù)訓(xùn)練消耗的資源較大,硬件條件不允許的情況下建議直接下載開源的模型

Bert Finetune

微調(diào)將最后一層的第一個token即[CLS]的隱藏向量作為句子的表示,然后輸入到softmax層進行分類。

sequence_output, pooled_output = \self.bert(input_ids=input_ids, token_type_ids=token_type_ids)if self.pooled:reps = pooled_output else:reps = sequence_output[:, 0, :] # sen_num x 256if self.training:reps = self.dropout(reps)

本章小結(jié)

本章介紹了Bert的原理和使用,具體包括pretrain和finetune兩部分。

本章作業(yè)

  • 完成Bert Pretrain和Finetune的過程
  • 閱讀Bert官方文檔,找到相關(guān)參數(shù)進行調(diào)參

簡化版bert的學(xué)習(xí)

A Visual Notebook to Using BERT for the First TIme.ipynb

In this notebook, we will use pre-trained deep learning model to process some text. We will then use the output of that model to classify the text. The text is a list of sentences from film reviews. And we will calssify each sentence as either speaking “positively” about its subject of “negatively”.

Models: Sentence Sentiment Classification

Our goal is to create a model that takes a sentence (just like the ones in our dataset) and produces either 1 (indicating the sentence carries a positive sentiment) or a 0 (indicating the sentence carries a negative sentiment). We can think of it as looking like this:

Under the hood, the model is actually made up of two model.

  • DistilBERT processes the sentence and passes along some information it extracted from it on to the next model. DistilBERT is a smaller version of BERT developed and open sourced by the team at HuggingFace. It’s a lighter and faster version of BERT that roughly matches its performance.
  • The next model, a basic Logistic Regression model from scikit learn will take in the result of DistilBERT’s processing, and classify the sentence as either positive or negative (1 or 0, respectively).

The data we pass between the two models is a vector of size 768. We can think of this of vector as an embedding for the sentence that we can use for classification.

Dataset

The dataset we will use in this example is SST2, which contains sentences from movie reviews, each labeled as either positive (has the value 1) or negative (has the value 0):

sentence label
a stirring , funny and finally transporting re imagining of beauty and the beast and 1930s horror films 1
apparently reassembled from the cutting room floor of any given daytime soap 0
they presume their audience won't sit still for a sociology lesson 0
this is a visually stunning rumination on love , memory , history and the war between art and commerce 1
jonathan parker 's bartleby should have been the be all end all of the modern office anomie films 1

Installing the transformers library

Let’s start by installing the huggingface transformers library so we can load our deep learning NLP model.

import numpy as np import pandas as pd from sklearn.model_selection import train_test_split from sklearn.linear_model import LogisticRegression from sklearn.model_selection import GridSearchCV from sklearn.model_selection import cross_val_score import torch import transformers as ppb import warnings warnings.filterwarnings('ignore')

Importing the dataset

We’ll use pandas to read the dataset and load it into a dataframe.

df = pd.read_csv('train.tsv', delimiter='\t', header=None)

For performance reasons, we’ll only use 2,000 sentences from the dataset

batch_1 = df[:2000]

We can ask pandas how many sentences are labeled as “positive” (value 1) and how many are labeled “negative” (having the value 0)

batch_1[1].value_counts() batch_1.head()

Loading the Pre-trained BERT model

Let’s now load a pre-trained BERT model.

model_class, tokenizer_class, pretrained_weights = (ppb.DistilBertModel, ppb.DistilBertTokenizer, 'distilbert-base-uncased')model_class # For DistilBERT: model_class, tokenizer_class, pretrained_weights = (ppb.DistilBertModel, ppb.DistilBertTokenizer, 'distilbert-base-uncased')## Want BERT instead of distilBERT? Uncomment the following line: #model_class, tokenizer_class, pretrained_weights = (ppb.BertModel, ppb.BertTokenizer, 'bert-base-uncased')# Load pretrained model/tokenizer tokenizer = tokenizer_class.from_pretrained(pretrained_weights) model = model_class.from_pretrained(pretrained_weights)

Right now, the variable model holds a pretrained distilBERT model – a version of BERT that is smaller, but much faster and requiring a lot less memory.

Model #1: Preparing the Dataset

Before we can hand our sentences to BERT, we need to so some minimal processing to put them in the format it requires.

Tokenization

Our first step is to tokenize the sentences – break them up into word and subwords in the format BERT is comfortable with.

tokenized = batch_1[0].apply((lambda x: tokenizer.encode(x, add_special_tokens=True))) tokenized.values

Padding

After tokenization, tokenized is a list of sentences – each sentences is represented as a list of tokens. We want BERT to process our examples all at once (as one batch). It’s just faster that way. For that reason, we need to pad all lists to the same size, so we can represent the input as one 2-d array, rather than a list of lists (of different lengths).

max_len = 0 for i in tokenized.values:if len(i) > max_len:max_len = len(i)padded = np.array([i + [0]*(max_len-len(i)) for i in tokenized.values])np.array(padded).shape

Masking

If we directly send padded to BERT, that would slightly confuse it. We need to create another variable to tell it to ignore (mask) the padding we’ve added when it’s processing its input. That’s what attention_mask is:

attention_mask = np.where(padded != 0, 1, 0) attention_mask.shape

Model #1: And Now, Deep Learning!

Now that we have our model and inputs ready, let’s run our model!

The model() function runs our sentences through BERT. The results of the processing will be returned into last_hidden_states.

input_ids = torch.tensor(padded) attention_mask = torch.tensor(attention_mask)with torch.no_grad():last_hidden_states = model(input_ids, attention_mask=attention_mask)

Model #2: Train/Test Split

Let’s now split our datset into a training set and testing set (even though we’re using 2,000 sentences from the SST2 training set).

train_features, test_features, train_labels, test_labels = train_test_split(features, labels)

[Bonus] Grid Search for Parameters

We can dive into Logistic regression directly with the Scikit Learn default parameters, but sometimes it’s worth searching for the best value of the C parameter, which determines regularization strength.

# parameters = {'C': np.linspace(0.0001, 100, 20)} # grid_search = GridSearchCV(LogisticRegression(), parameters) # grid_search.fit(train_features, train_labels)# print('best parameters: ', grid_search.best_params_) # print('best scrores: ', grid_search.best_score_)

We now train the LogisticRegression model. If you’ve chosen to do the gridsearch, you can plug the value of C into the model declaration (e.g. LogisticRegression(C=5.2)).

lr_clf = LogisticRegression() lr_clf.fit(train_features, train_labels)

Evaluating Model #2

So how well does our model do in classifying sentences? One way is to check the accuracy against the testing dataset:

lr_clf.score(test_features, test_labels)

How good is this score? What can we compare it against? Let’s first look at a dummy classifier:

from sklearn.dummy import DummyClassifier clf = DummyClassifier()scores = cross_val_score(clf, train_features, train_labels) print("Dummy classifier score: %0.3f (+/- %0.2f)" % (scores.mean(), scores.std() * 2))

So our model clearly does better than a dummy classifier. But how does it compare against the best models?

Proper SST2 scores

For reference, the highest accuracy score for this dataset is currently 96.8. DistilBERT can be trained to improve its score on this task – a process called fine-tuning which updates BERT’s weights to make it achieve a better performance in this sentence classification task (which we can call the downstream task). The fine-tuned DistilBERT turns out to achieve an accuracy score of 90.7. The full size BERT model achieves 94.9.

And that’s it! That’s a good first contact with BERT. The next step would be to head over to the documentation and try your hand at fine-tuning. You can also go back and switch from distilBERT to BERT and see how that works.

總結(jié)

以上是生活随笔為你收集整理的Datawhale组队学习-NLP新闻文本分类-TASK06的全部內(nèi)容,希望文章能夠幫你解決所遇到的問題。

如果覺得生活随笔網(wǎng)站內(nèi)容還不錯,歡迎將生活随笔推薦給好友。

国产麻豆精品久久一二三 | 精品福利在线视频 | 18pao国产成视频永久免费 | 亚洲成a人片在线观看网站口工 | 国产麻豆视频 | 在线天堂中文在线资源网 | av片在线观看免费 | 亚洲高清国产视频 | 午夜黄色一级片 | 黄色高清视频在线观看 | 91经典在线 | 在线观看亚洲 | 中文字幕在线观看免费高清完整版 | 狠狠操狠狠操 | 精品久久久久久久久久岛国gif | 色88久久| 亚洲成a人片77777kkkk1在线观看 | 在线电影 一区 | 国产 日韩 在线 亚洲 字幕 中文 | 99色人| 米奇狠狠狠888 | 99热999 | 日韩午夜在线播放 | 色婷婷www | 精品高清美女精品国产区 | 免费福利在线视频 | 色www免费视频 | 国产电影黄色av | 全黄网站| 制服丝袜欧美 | 久久99久久精品国产 | 成人午夜电影在线 | 91在线区 | 美女视频久久 | 中文字幕频道 | 免费看av片网站 | 国产视频精品在线 | 激情在线网站 | 成人在线观看影院 | 三级视频日韩 | 九九精品视频在线看 | 成人av资源 | 一区二区视频播放 | 99999精品| 国产精品视频地址 | 中文字幕一区二区三区乱码不卡 | 成人h视频在线播放 | 国产资源免费 | caobi视频 | 黄色一级动作片 | 免费看久久| 91一区在线观看 | 最新日韩在线观看视频 | 99精品视频在线观看播放 | 天天夜操 | 国产黄免费看 | 丝袜美腿在线视频 | 亚洲资源 | 日韩美一区二区三区 | 久久久久久久久久影院 | 久久久影视 | 精品美女在线观看 | 国产在线免费观看 | 午夜视频免费播放 | 国产视频丨精品|在线观看 国产精品久久久久久久久久久久午夜 | 亚洲爱视频 | 丁香六月久久综合狠狠色 | 97日日| 欧美一级日韩三级 | 国内免费的中文字幕 | 日韩精品首页 | 日韩激情免费视频 | 成人午夜精品 | 国产精品久久三 | 国产精品久久久久久吹潮天美传媒 | 久久综合久久综合久久 | 麻豆果冻剧传媒在线播放 | 欧美另类v | 天天爱天天爽 | 欧美国产精品一区二区 | 成人av资源在线 | 亚洲一级片在线观看 | 亚洲免费在线播放视频 | 日韩精品久久一区二区三区 | 亚洲成人av片在线观看 | 国产成人精品区 | 国产黄影院色大全免费 | 五月婷婷激情综合网 | 欧美999| 不卡精品 | 欧美激情精品一区 | 麻花豆传媒一二三产区 | 日本精品在线视频 | 91尤物国产尤物福利在线播放 | 免费在线观看成年人视频 | 91精品免费在线观看 | 免费看片日韩 | 欧美日本中文字幕 | 国产精品成人久久久久 | 久久伦理影院 | 一区二区三区 亚洲 | 日韩超碰| 一区二区三区免费网站 | 亚洲精品高清一区二区三区四区 | 日本中文字幕网址 | av大片免费 | 日韩影视精品 | 色先锋av资源中文字幕 | 波多野结衣一区二区三区中文字幕 | 天天干,夜夜爽 | 久草精品视频在线观看 | 久久久久国产成人精品亚洲午夜 | 婷婷丁香在线观看 | 日韩一级成人av | 天天干天天在线 | 9797在线看片亚洲精品 | 国产美女视频免费观看的网站 | 一二区精品 | 欧美成人精品xxx | 午夜视频一区二区 | 91视频久久久久久 | 丁香六月伊人 | 日韩免费观看一区二区 | 国产喷水在线 | 欧美一级乱黄 | 91豆花在线观看 | 国产成人一二三 | 国产精品a久久久久 | 人人玩人人爽 | 午夜在线免费观看 | 日韩免费一区二区在线观看 | www.久草.com | 在线视频手机国产 | 国产高清av免费在线观看 | 少妇精69xxtheporn | www.久久成人 | 欧美精品国产精品 | 狠狠色伊人亚洲综合网站野外 | 免费 在线 中文 日本 | 又大又硬又黄又爽视频在线观看 | 欧美黄色成人 | 五月激情亚洲 | 欧美黄色特级片 | 四虎影视国产精品免费久久 | 天天射天天干天天插 | 日韩在线视频在线观看 | 日韩欧美在线综合网 | 黄色电影小说 | 一级免费片 | 伊人开心激情 | 久久久久久黄 | 国产日韩欧美在线免费观看 | 中日韩男男gay无套 日韩精品一区二区三区高清免费 | wwwwwww黄 | 最新中文在线视频 | zzijzzij亚洲日本少妇熟睡 | 婷婷亚洲最大 | 精品三级av | 色天天综合久久久久综合片 | 欧美精品在线视频 | 五月婷婷综合在线视频 | 精品国产乱子伦一区二区 | 91完整版在线观看 | 97超在线视频 | 91精品在线免费 | 高清免费在线视频 | 国产精品久久久久久久久免费 | 国产综合在线视频 | 国内精品小视频 | 国产xvideos免费视频播放 | 丁香五月网久久综合 | 欧美色图30p | 99热最新在线 | 亚洲一级二级三级 | 亚洲国产成人精品在线 | 国产亚洲在线视频 | 亚洲成a人片77777潘金莲 | 亚洲精品视频在线免费 | 97色噜噜 | 激情网站五月天 | 九九热精品视频在线观看 | 欧美一进一出抽搐大尺度视频 | 成人免费看电影 | 99在线视频网站 | 成人午夜在线电影 | 欧美一级日韩三级 | 四虎影视精品永久在线观看 | 久久久免费播放 | 欧美日韩国产色综合一二三四 | 婷婷久久国产 | 欧美aa一级片 | 97网在线观看 | 亚洲综合在线五月天 | 九九99靖品 | 日韩精品在线免费观看 | 亚洲japanese制服美女 | 91精品一区二区三区久久久久久 | 久久久久国产成人精品亚洲午夜 | 亚洲黄色片在线 | 91中文字幕在线 | 日韩av电影中文字幕在线观看 | 欧美在线观看视频免费 | 黄网站app在线观看免费视频 | 精品国模一区二区 | 国产18精品乱码免费看 | 射射射综合网 | 在线视频 区 | 日本中文一区二区 | 亚洲综合色婷婷 | 2022久久国产露脸精品国产 | 九九九免费视频 | 亚洲手机天堂 | 在线看av网址 | 久久久久久久久久久免费 | 久久在线视频精品 | 黄在线免费看 | 永久黄网站色视频免费观看w | 国产一区二区午夜 | 亚洲精品一区中文字幕乱码 | 婷婷干五月 | 亚洲黄色av网址 | 亚洲综合欧美激情 | 日韩美女av在线 | 日韩欧美精品免费 | 国产无限资源在线观看 | av在线影片 | 人人干免费 | 狠狠干夜夜操 | 久久久久久久精 | 亚洲aⅴ一区二区三区 | 成全在线视频免费观看 | 99资源网| 国产va饥渴难耐女保洁员在线观看 | 久久人人添人人爽添人人88v | 尤物97国产精品久久精品国产 | 欧美日韩一区二区三区视频 | 午夜视频一区二区三区 | 日产av在线播放 | 中文字幕视频一区二区 | 久久天 | 久久激情久久 | 日韩精品一区二区在线视频 | 美女视频免费一区二区 | 超碰在线人人艹 | 最新国产福利 | 久久久精品日本 | 成人免费av电影 | 9999国产精品 | 米奇狠狠狠888 | 999久久久免费视频 午夜国产在线观看 | 在线影视 一区 二区 三区 | 中文字幕 国产视频 | 久久久精品视频成人 | 国产精品成人久久久久久久 | 中文字幕91在线 | 91最新地址永久入口 | 精品网站999www | 国内丰满少妇猛烈精品播 | 三级av中文字幕 | 国产99在线播放 | 午夜在线日韩 | 狠狠的干狠狠的操 | 9在线观看免费高清完整版 玖玖爱免费视频 | 黄污视频网站大全 | 色综合天天视频在线观看 | 在线免费av网站 | 欧美日韩在线视频观看 | 九色福利视频 | 亚洲视频一区二区三区在线观看 | 国产91免费在线 | 亚洲精品乱码久久 | 国产一区二区高清视频 | 2018好看的中文在线观看 | 久草爱视频| 高清在线一区二区 | 香蕉视频一级 | 欧美日韩在线播放 | 日韩一区二区久久 | 国产精品一区二区在线观看 | 国产精品理论片在线播放 | 麻豆国产露脸在线观看 | 人人看黄色 | 欧美性大胆 | 国产日韩欧美自拍 | 免费看黄在线看 | 激情视频在线观看网址 | 国产日韩欧美视频在线观看 | 久草视频视频在线播放 | 久久免费视频在线观看30 | 国产黄色片免费观看 | 天堂入口网站 | a视频在线 | 国产免费观看高清完整版 | 最新av网站在线观看 | 日韩免费成人 | 国产69精品久久久久99 | 在线免费观看视频一区 | www.色综合.com| 色综合久久中文字幕综合网 | 亚洲激情影院 | 91色在线观看视频 | av天天在线观看 | 国产高清视频免费观看 | 999国产在线| 日韩在线观看电影 | 欧美色图88 | 国产精品久久久久久久久久三级 | 亚洲日本va午夜在线电影 | 亚洲精品乱码久久久久久蜜桃不爽 | 国产亚洲一区 | 91麻豆精品国产91久久久久 | 一区二区三区电影在线播 | 国产黄色看片 | 97色视频在线 | 国产精品黄色影片导航在线观看 | 国产精品日韩在线观看 | 日韩精品中文字幕在线播放 | 日韩av快播电影网 | 毛片一级免费一级 | 国产一区在线视频观看 | 国产手机视频在线播放 | 91精品在线免费 | 国产一级精品绿帽视频 | 97人人添人澡人人爽超碰动图 | 日韩精品观看 | 91中文在线视频 | 黄色免费观看网址 | 狠狠操狠狠操 | 黄色在线成人 | 欧美日韩高清不卡 | 国产日韩欧美精品在线观看 | 欧美日本三级 | 天操夜夜操 | 天天射综合网视频 | 久视频在线播放 | 亚洲视频1区2区 | 在线国产中文字幕 | 国产一级淫片免费看 | 激情五月播播久久久精品 | 中文字幕色站 | 成人avav| 超碰在97 | av中文在线 | 人人添人人 | 久久国产精品电影 | 久久情爱 | 丁香婷婷成人 | 四虎影视精品永久在线观看 | 亚洲专区中文字幕 | 91在线播放国产 | 色综合久久中文综合久久牛 | 在线视频观看成人 | 日韩激情视频在线观看 | 国产在线资源 | 狠狠色噜噜狠狠狠狠2022 | 有没有在线观看av | 伊人伊成久久人综合网小说 | 国产精品美女网站 | 黄色特级毛片 | 日韩高清免费在线 | 日韩av快播电影网 | 久久一及片 | 国产精品久久伊人 | 五月天久久狠狠 | 国产欧美精品在线观看 | 久久99视频精品 | 亚洲午夜精品一区二区三区电影院 | 日韩城人在线 | 亚洲三级性片 | 最新av在线网址 | 午夜av电影院 | 国产成人亚洲在线观看 | 日韩精品一区二区三区免费视频观看 | 国产成人黄色片 | 精品理论片 | 成人黄色在线播放 | 中文字幕专区高清在线观看 | 国产精品嫩草55av | 久久99九九99精品 | 久久情爱 | 亚洲国产精品影院 | 在线观看日韩专区 | 欧美精品久久久久性色 | 国产精品永久 | 日韩在线理论 | 丁香激情五月婷婷 | 国产黄色精品在线观看 | 欧美色道| 成人午夜在线电影 | 2018亚洲男人天堂 | 精品久久久久免费极品大片 | 伊在线视频 | 国产三级精品三级在线观看 | 精品国产a| 9999激情 | 91香蕉视频污在线 | 亚洲精品99久久久久久 | 色久综合| 久草在线手机视频 | 国产精品永久在线 | 成人亚洲网 | 久久免费一 | 免费看国产a | 久久久不卡影院 | japanesefreesex中国少妇 | 美女视频又黄又免费 | 国产人成看黄久久久久久久久 | 久久久久亚洲精品国产 | 免费看片亚洲 | 国产精品欧美日韩在线观看 | 午夜精品久久久99热福利 | 午夜a区 | 国产九九精品 | 欧美日韩国产一区二区在线观看 | 在线视频手机国产 | 久久综合国产伦精品免费 | 国内精品久久久久 | 国产在线精品二区 | 久久九九视频 | 欧美日韩xxx| 一级黄色电影网站 | 国产99久| 中文字幕在线免费观看视频 | 久草在线免费资源站 | 干 操 插| 国产一区二区精品 | 91福利视频网站 | 欧美国产日韩在线观看 | 免费激情网 | 黄色av三级在线 | 贫乳av女优大全 | 国产一区二区在线播放 | 欧美午夜久久久 | 国产欧美久久久精品影院 | 欧美黑吊大战白妞欧美 | 91精品在线麻豆 | 国产精品一区二区久久精品爱涩 | 久久精品毛片基地 | 日日天天狠狠 | 狠狠色丁香婷婷综合欧美 | 97天堂 | 在线观看av中文字幕 | 99久久夜色精品国产亚洲96 | 又黄又爽又无遮挡免费的网站 | 国产97免费 | 国产无区一区二区三麻豆 | 久久精品中文视频 | 9999毛片| 国产一级二级三级在线观看 | 日韩三级视频在线观看 | 最近免费观看的电影完整版 | 日韩欧美久久 | 很黄很黄的网站免费的 | 999久久久久久久久6666 | 99综合电影在线视频 | 最新av在线播放 | 综合国产在线观看 | 色综合激情网 | av一级在线 | 色妞色视频一区二区三区四区 | 蜜桃av人人夜夜澡人人爽 | 亚洲艳情 | 久草在线网址 | 美女在线免费视频 | 久草在线高清 | 最新中文字幕 | 国产一区久久 | 狠狠干夜夜操 | 免费亚洲一区二区 | 蜜臀av免费一区二区三区 | 免费观看全黄做爰大片国产 | 国产成人精品一区二区三区免费 | 天天操夜夜爱 | 天天操天| 日韩城人在线 | 日韩aa视频 | 在线小视频你懂得 | 久久综合成人 | 国内揄拍国内精品 | 国产一二三四在线观看视频 | 久草视频免费播放 | 久久久麻豆 | 激情九九 | 午夜电影中文字幕 | 欧美了一区在线观看 | 在线视频 91| 婷婷精品 | 人人舔人人舔 | 精品久久久影院 | 亚洲精品九九 | 91精品少妇偷拍99 | 欧美一区二区三区在线看 | 欧美日韩在线观看一区二区 | 日韩在线观看视频中文字幕 | 亚洲成a人片77777kkkk1在线观看 | 香蕉免费在线 | 91少妇精拍在线播放 | 国产亚洲欧美精品久久久久久 | 中文字幕色网站 | 五月婷久久 | 黄色亚洲精品 | 美女在线观看网站 | 免费在线观看日韩视频 | 在线观看日本高清mv视频 | 激情综合中文娱乐网 | 久草在线久草在线2 | 日本久久久久久久久 | 免费人人干 | 免费色黄| 国产精品麻豆免费版 | 色五月色开心色婷婷色丁香 | 久久综合久久88 | 国产专区欧美专区 | 亚洲精品国产自产拍在线观看 | 激情电影影院 | 91成人精品国产刺激国语对白 | 久久国际影院 | 免费视频久久久久 | 久久精品免费播放 | 麻花豆传媒一二三产区 | 色视频在线免费 | 欧美色就是色 | 欧美一二三专区 | 色小说av | 久久综合色影院 | 精品一区二区在线免费观看 | 免费视频一区二区 | 日韩午夜在线观看 | 国产精品福利av | 久久艹国产 | 六月丁香伊人 | 在线观看视频你懂的 | 欧美一区二区三区在线视频观看 | 亚洲精品18日本一区app | 久久99久久99精品免观看粉嫩 | 国产麻豆精品免费视频 | 国产精品成人免费精品自在线观看 | 在线电影91 | 91片网| 国产精品原创视频 | 欧美一二三区在线播放 | 欧美日韩三级在线观看 | 免费观看日韩 | 国产午夜精品理论片在线 | 看片网站黄色 | 97超在线 | 一区二区精品久久 | www.午夜色.com | 嫩小bbbb摸bbb摸bbb | 亚洲精品在线视频播放 | 日韩免费网站 | 菠萝菠萝蜜在线播放 | 91人人干 | 国产黄色播放 | 五月婷久久 | 91在线中文| 国产精品久久久久久五月尺 | 欧美激情综合色综合啪啪五月 | jizz18欧美18| 中文字幕在线视频精品 | 欧美日韩一级在线 | 亚洲h色精品 | 日韩av电影网站在线观看 | 国内丰满少妇猛烈精品播 | 中文字幕视频在线播放 | 人人插人人插 | 99精彩视频 | 97人人射| 五月婷婷六月丁香 | 激情欧美日韩一区二区 | 国产手机视频在线 | 成人aaa毛片 | 色综合人人| 91视频这里只有精品 | 伊人天天狠天天添日日拍 | 手机看片中文字幕 | 国产一区二区三区四区在线 | 国产品久精国精产拍 | 韩国av免费观看 | 久久综合导航 | 国产99在线免费 | 伊人国产在线观看 | 337p日本大胆噜噜噜噜 | 日韩区欠美精品av视频 | 国产精品久久久久久久久久三级 | 菠萝菠萝蜜在线播放 | 色窝资源 | 一区精品久久 | 国产成人精品一区二区在线观看 | 免费a级大片 | 色偷偷男人的天堂av | 爱爱av在线| 亚洲国产成人在线 | 国产成人一区二区三区在线观看 | 91自拍91| 国产精品嫩草69影院 | 九色91视频 | 欧洲一区二区三区精品 | 免费看的av片 | 国产99自拍| 午夜电影一区 | 在线国产一区二区三区 | 国产一区二区在线免费视频 | 亚洲国产高清视频 | 中文字幕日韩电影 | 亚洲精品国产精品国自 | 久久97久久 | 国产中文字幕视频在线观看 | 97电影在线 | 天天综合天天做 | 精品久久久久久久久久久久久久久久 | 久久精品五月 | 免费黄色一区 | 久久久久久综合网天天 | 麻豆系列在线观看 | av电影一区二区三区 | 色欧美88888久久久久久影院 | 99热精品在线观看 | 国产成人黄色网址 | 在线观看91 | 一区二区免费不卡在线 | 看黄色.com | 黄色毛片观看 | 国产小视频在线观看 | 在线看日韩 | 91九色国产视频 | 日韩中文字幕91 | 国产成人精品一区二区三区福利 | 亚洲综合精品视频 | 日韩精品极品视频 | 日韩精品久久久免费观看夜色 | 亚洲区另类春色综合小说 | 国产一区欧美一区 | 久久久久久高清 | 91成人免费在线视频 | 久久精品视频网站 | 国产专区一 | 日韩色在线 | 久久黄色片子 | 欧美贵妇性狂欢 | 深夜免费小视频 | 97成人免费视频 | 免费成人黄色av | 欧美日韩午夜爽爽 | 在线观看香蕉视频 | 毛片在线播放网址 | 国产日韩精品一区二区在线观看播放 | 四虎永久网站 | 最近的中文字幕大全免费版 | 婷婷国产在线观看 | 日韩不卡高清视频 | 日韩久久精品一区 | 久久综合免费 | 日韩中文字幕视频在线 | 亚洲精品美女久久久久网站 | 精品中文字幕在线 | 国产精品免费人成网站 | 日韩欧美在线高清 | 成年人在线看片 | 日韩av午夜在线观看 | 免费av网址大全 | 欧美日韩在线免费观看视频 | 蜜臀久久99精品久久久无需会员 | av线上看| 亚洲成人精品av | 缴情综合网五月天 | 国产视频一区二区在线 | 精品国产乱码久久久久久三级人 | 免费观看全黄做爰大片国产 | 欧美国产日韩久久 | 麻豆成人小视频 | 亚洲日韩中文字幕在线播放 | 日韩小视频网站 | 精品在线视频观看 | 久草久草在线 | 91最新中文字幕 | 日本三级久久 | 九九热免费精品视频 | 久久狠狠婷婷 | 公与妇乱理三级xxx 在线观看视频在线观看 | 免费av大片 | 国内精品久久久久久中文字幕 | av中文字幕日韩 | 国产精品免费视频观看 | 人人狠 | 伊人天天狠天天添日日拍 | 91成人在线免费观看 | 日韩激情在线视频 | 又湿又紧又大又爽a视频国产 | 国产婷婷久久 | 日韩有码专区 | 99热这里是精品 | 欧美一区二区在线 | 日日摸日日添夜夜爽97 | 国产一区二区三区免费在线 | 美女国产在线 | 国产精品久久久久av免费 | 91九色蝌蚪 | 伊人日日干 | 在线 国产 亚洲 欧美 | 国产精品免费观看网站 | 国产一区在线视频播放 | 久久视频 | 99免费看片 | 一本一道久久a久久综合蜜桃 | 久久伦理 | 日韩精品欧美视频 | 在线观看视频黄色 | 日日夜夜天天久久 | 中文字幕免费 | 欧美精品久久人人躁人人爽 | 人人爽人人爽人人爽学生一级 | 婷婷色伊人 | 在线观看视频一区二区三区 | 99精品国产在热久久 | 欧美日韩三级 | 日韩视频a | 黄色av免费电影 | 天天干亚洲| 在线看91| 欧美日韩高清一区二区 | 国产不卡在线播放 | 丁香花中文在线免费观看 | 99在线观看视频网站 | 日韩超碰 | av中文字幕在线观看网站 | 国内精品久久久久影院日本资源 | 五月综合婷 | 国产色一区 | 97av视频| 免费午夜视频在线观看 | 五月婷婷视频在线 | av黄色大片 | 在线观看av免费观看 | 超碰个人在线 | 人人爽人人爽人人爽人人爽 | 欧美日比视频 | 麻花豆传媒mv在线观看网站 | av 一区 二区 久久 | 精品久久久久久久久久久久 | 奇米四色影狠狠爱7777 | 亚洲国产精品推荐 | 久久精品美女 | 国产精品午夜久久久久久99热 | 97天天干| 日日成人网 | 日日操操操 | 在线看一区 | 国产精品自产拍在线观看蜜 | 亚洲欧洲在线视频 | 欧美日韩精品区 | 久久涩视频 | 久久久国产精品久久久 | 91人人视频在线观看 | 国内少妇自拍视频一区 | 最近日本字幕mv免费观看在线 | 免费在线观看国产黄 | 欧美性生活小视频 | www久久久| 国产黄色av网站 | 深爱激情五月婷婷 | 香蕉视频免费在线播放 | 久久久久国产成人精品亚洲午夜 | 99精品在线免费视频 | 精品黄色在线 | 中文字幕在线免费看线人 | 国内精品久久久 | 精品久久精品久久 | 999久久| 国产亚洲小视频 | 日日夜夜中文字幕 | 久久福利国产 | 亚洲精品乱码久久久久久久久久 | 玖草在线观看 | 欧美日韩亚洲在线观看 | 国产热re99久久6国产精品 | av综合av | 99热这里只有精品在线观看 | 国产精品刺激对白麻豆99 | 日本中文字幕网 | av片在线观看免费 | 日本激情视频中文字幕 | 免费观看不卡av | 久久精品亚洲 | 久草在线视频首页 | 成人毛片一区二区三区 | 一区二区三区四区五区六区 | 三级黄色理论片 | 欧美a影视| 国产婷婷久久 | 亚洲欧美精品一区二区 | 国产录像在线观看 | 国产精品亚洲片夜色在线 | 三级在线国产 | 久久精品123 | 久久草草热国产精品直播 | 西西www4444大胆视频 | 精品国产伦一区二区三区观看说明 | 午夜精品福利影院 | 最新午夜电影 | 国产一区在线播放 | 久久av免费电影 | 丁香婷婷综合网 | 天天操天天弄 | 超碰在线观看97 | 日韩中文字幕免费在线播放 | 国产淫片| 国产精品久久久久久av | 成年人在线观看 | 久草视频在线播放 | 日日夜夜精品免费 | 九九九九色 | 免费av在线网站 | 日本最新高清不卡中文字幕 | 日本女人的性生活视频 | 一区二区三区免费在线观看 | 99久高清在线观看视频99精品热在线观看视频 | 亚洲精品乱码久久久久 | 久久视频这里有久久精品视频11 | 最新色视频| 毛片二区 | www黄色av| 久久久久久久久久久高潮一区二区 | 91亚洲国产成人久久精品网站 | 欧美日韩大片在线观看 | 国产精品99在线观看 | 国产 中文 日韩 欧美 | 成人在线视频观看 | 色综合久久中文字幕综合网 | 色婷婷亚洲精品 | 伊人天堂网 | 国产成人福利 | 麻豆av一区二区三区在线观看 | 久久久久久片 | 91视频在线观看大全 | 亚洲精品在线观看视频 | 人人舔人人 | 日韩精品中字 | 不卡的av在线播放 | 激情五月色播五月 | 特级免费毛片 | 亚一亚二国产专区 | 97品白浆高清久久久久久 | 亚洲91精品 | 在线视频麻豆 | 7777精品伊人久久久大香线蕉 | 日日射av | 亚洲欧美成aⅴ人在线观看 四虎在线观看 | 综合天天 | 人人爽人人爱 | 欧美乱码精品一区二区 | 精品一区二区久久久久久久网站 | 激情综合亚洲精品 | 99综合电影在线视频 | 久久久综合香蕉尹人综合网 | 四虎成人精品永久免费av | 中文字幕字幕中文 | 日韩精品视频第一页 | 久久婷婷影视 | 国产精品视频最多的网站 | 全久久久久久久久久久电影 | 国产精品久免费的黄网站 | 国产精品久久久久久久婷婷 | 午夜在线观看影院 | 精品一区中文字幕 | av黄色在线| 久久视频免费看 | 免费看黄在线观看 | 91亚洲视频在线观看 | 日韩欧美视频 | 久久国产精品99久久人人澡 | 日韩啪啪小视频 | 免费a网站 | 久久手机精品视频 | 蜜桃视频日韩 | 亚洲精品在线视频网站 | 久久国产经典视频 | 中午字幕在线观看 | 久艹视频免费观看 | 色综合久久久久综合 | 日韩欧在线 | 91精品一区二区三区久久久久久 | 亚洲亚洲精品在线观看 | 久久精品人人做人人综合老师 | 麻豆影视在线播放 | 国产精品久久久久免费观看 | 人人插人人插 | 伊人午夜视频 | 999亚洲国产996395| 亚洲欧美日韩在线看 | 婷婷国产v亚洲v欧美久久 | 亚洲一区二区三区四区在线视频 | 国产精品人成电影在线观看 | 人人草天天草 | 在线国产视频观看 | 99精品国产在热久久下载 | 91成人免费 | 在线观看911视频 | 亚洲综合在线五月天 | 激情av网址 | 丁香视频全集免费观看 | 国产精品video爽爽爽爽 | 久草影视在线 | 热久久这里只有精品 | 午夜免费久久看 | 午夜视频不卡 | 国产69精品久久久久久久久久 | 精品视频久久久久久 | 免费的国产精品 | 91成人免费观看视频 | www日 | 中文字幕乱视频 | 精品国产乱码 | 亚洲国产大片 | 日韩午夜在线 | 韩国三级一区 | 天天操天天操天天干 | aa级黄色大片 | 丁香激情视频 | 天天躁天天躁天天躁婷 | 久草亚洲视频 | 欧美精品久久天天躁 | 免费a级黄色毛片 | 91超级碰碰 | 手机看片国产日韩 | 国产精品一区二区免费视频 | 国产精选在线观看 | 综合久久精品 | 亚洲高清精品在线 | av在线影片 | 亚洲精品视频大全 | 欧美韩国在线 | 免费看片成人 | 亚洲天堂首页 | 亚洲国产中文字幕在线观看 | 成人在线观看网址 | 特黄色大片 | 欧日韩在线| av网站免费看 | 一区二区成人国产精品 | 五月天丁香亚洲 | 免费av在 | 天天干天天天天 | 日韩免费在线观看视频 | 精品亚洲网 | 麻豆视频在线播放 | 久久久久黄 | 日本不卡视频 | www国产亚洲精品久久麻豆 | 国产小视频在线看 | 免费久久99精品国产 | 精品欧美乱码久久久久久 | 国产a精品 | 亚洲欧美日韩精品久久久 | 黄色毛片视频免费 | 国内精品视频在线 | 亚洲国产伊人 | 五月天综合在线 | 久久人人爽av | 亚洲激精日韩激精欧美精品 | 久久久久www | 婷婷www | 国产美女视频黄a视频免费 久久综合九色欧美综合狠狠 | 欧美精品久久久久久久久久 | 91精品久久久久久久91蜜桃 | 免费观看一级特黄欧美大片 | 99免费在线播放99久久免费 | 99精品国产aⅴ| 日韩美在线 | 亚洲激情p | 免费观看成人av | www激情久久 | 国产午夜精品av一区二区 | 毛片1000部免费看 | 在线观看黄色免费视频 | 国产视频一 | 国产精品久久在线观看 | 亚洲男男gaygayxxxgv | 国产69精品久久99不卡的观看体验 | 人人干在线 | 99久久精品国产毛片 | 亚洲精品在线电影 | 成人av资源网 | 国产成人精品免费在线观看 | 999久久| 国产亚洲精品久久久久久网站 | 亚洲国产精品日韩 | 一区二区三区在线免费播放 | 色婷婷99| 一区二区三区在线视频111 | 成人免费视频视频在线观看 免费 | 天天夜夜操 | 美女黄频视频大全 | 国产一区二区成人 | 人人爽久久久噜噜噜电影 | 麻豆一精品传二传媒短视频 | 亚洲干视频在线观看 | 亚洲成年人av |