日韩av黄I国产麻豆传媒I国产91av视频在线观看I日韩一区二区三区在线看I美女国产在线I麻豆视频国产在线观看I成人黄色短片

歡迎訪問 生活随笔!

生活随笔

當前位置: 首頁 > 编程资源 > 编程问答 >内容正文

编程问答

Hadoop入门(十一)Mapreduce的InputFomrat各种子类

發(fā)布時間:2023/12/3 编程问答 41 豆豆
生活随笔 收集整理的這篇文章主要介紹了 Hadoop入门(十一)Mapreduce的InputFomrat各种子类 小編覺得挺不錯的,現(xiàn)在分享給大家,幫大家做個參考.

一、TextInputFormat

extends FileInputFomrat<LongWritable,Text>? 是默認讀取文件的切分器,其內(nèi)的LineRecordReader:用來讀取每一行的內(nèi)容,

? LineRecordReader:內(nèi)的 nextKeyValue(){}中,key的賦值在:

? initialize()方法內(nèi), key=start=split.getStart();?? split假如對應文件 hello.txt 期內(nèi)為hello you? hello me

? 那么起始位置就是0

? end = start + split.getLength(),

? 而行文本在方法 讀取到的行字節(jié)長度=readLine(...)中讀取,對應到LineReader.readLine(...) 170行

? string key = getCurrentKey()?? string value = getCurrentValue() 中得到

? 然后在Mapper類中:

?while(LineRecordReader.nextKeyValue()){key = linerecordreader.getCurrentKey()'value = linerecordreader.getCurrentValue()map.(key,value,context); //不停的將鍵值對寫出去 }

?

二、DBInputFormat

? DBInputFormat 在讀取數(shù)據(jù)時,產(chǎn)生的鍵值對是 <LongWritable,DBWritable的實例>

??? LongWritable仍舊是偏移量,

? 可以參看 org.apache.hadoop.mapreduce.lib.db.DBRecordReader.nextKeyValue()/232行,如下

?key.set(pos + split.getStart());?? 來確認 表示的仍舊是偏移量

package inputformat;import java.io.DataInput; import java.io.DataOutput; import java.io.IOException; import java.net.URI; import java.sql.PreparedStatement; import java.sql.ResultSet; import java.sql.SQLException;import mapreduce.MyWordCount;import org.apache.hadoop.conf.Configuration; import org.apache.hadoop.fs.FileSystem; import org.apache.hadoop.fs.Path; import org.apache.hadoop.io.LongWritable; import org.apache.hadoop.io.NullWritable; import org.apache.hadoop.io.Text; import org.apache.hadoop.io.Writable; import org.apache.hadoop.mapreduce.Job; import org.apache.hadoop.mapreduce.Mapper; import org.apache.hadoop.mapreduce.lib.db.DBConfiguration; import org.apache.hadoop.mapreduce.lib.db.DBInputFormat; import org.apache.hadoop.mapreduce.lib.db.DBWritable; import org.apache.hadoop.mapreduce.lib.output.FileOutputFormat;/*** 目的: 將mysql/test庫/myuser表中將字段id,name對應的屬性通過 mapreduce(下面例子僅是通過map 沒有reduce操作)將記錄寫出到hdfs中* mysql--->map--->hdfs* 要運行本示例* 1.把mysql的jdbc驅(qū)動放到各TaskTracker節(jié)點的hadoop/mapreduce/lib目錄下* 2.重啟集群*/ public class MyDBInputFormatApp {private static final String OUT_PATH = "hdfs://hadoop0:9000/out";public static void main(String[] args) throws Exception {Configuration conf = new Configuration();// 連接數(shù)據(jù)庫 代碼盡量考前寫 寫在后面執(zhí)行會報錯 DBConfiguration.configureDB(conf, "com.mysql.jdbc.Driver", "jdbc:mysql://hadoop0:3306/test", "root", "admin");final FileSystem filesystem = FileSystem.get(new URI(OUT_PATH), conf);if (filesystem.exists(new Path(OUT_PATH))) {filesystem.delete(new Path(OUT_PATH), true);}final Job job = new Job(conf, MyDBInputFormatApp.class.getSimpleName()); // 創(chuàng)建job job.setJarByClass(MyDBInputFormatApp.class);job.setInputFormatClass(DBInputFormat.class);// 指定inputsplit具體實現(xiàn)類 // 下面方法參數(shù)屬性為: 操作javabean, 對應表名, 查詢條件,排序要求,需要查詢的表字段 DBInputFormat.setInput(job, MyUser.class, "myuser", null, null, "id", "name");// // 設置map類和map處理的 key value 對應的數(shù)據(jù)類型 job.setMapperClass(MyMapper.class);job.setMapOutputKeyClass(Text.class);job.setMapOutputValueClass(NullWritable.class);job.setNumReduceTasks(0); //指定不需要使用reduce,直接把map輸出寫入到HDFS中 job.setOutputKeyClass(Text.class); // 設置job output key 輸出類型 job.setOutputValueClass(NullWritable.class);// 設置job output value 輸出類型 FileOutputFormat.setOutputPath(job, new Path(OUT_PATH));job.waitForCompletion(true);}//<k1,v1>對應的是數(shù)據(jù)庫對應表下記錄位置,和這行對應的JavaBean, <k2,v2>表示經(jīng)過map處理好輸出結(jié)果 public static class MyMapper extends Mapper<LongWritable, MyUser, Text, NullWritable> {protected void map(LongWritable key, MyUser value, Context context) throws java.io.IOException, InterruptedException {context.write(new Text(value.toString()), NullWritable.get());};}/*** Writable是為了在Hadoop各節(jié)點之間傳輸使用的,因此需要實例化* DBWritable表示和數(shù)據(jù)庫傳輸時使用的** @author zm*/public static class MyUser implements Writable, DBWritable {int id;String name;// 針對Writable 需要重寫的方法 @Overridepublic void write(DataOutput out) throws IOException {out.writeInt(id);Text.writeString(out, name);}@Overridepublic void readFields(DataInput in) throws IOException {this.id = in.readInt();this.name = Text.readString(in);}// 針對DBWritable需要重寫的方法 @Overridepublic void write(PreparedStatement statement) throws SQLException {statement.setInt(1, id);statement.setString(2, name);}@Overridepublic void readFields(ResultSet resultSet) throws SQLException {this.id = resultSet.getInt(1);this.name = resultSet.getString(2);}@Overridepublic String toString() {return id + "\t" + name;}} }

?

三、NLineInputFormat

?這種格式下,split的數(shù)量就不是由文件對應block塊個數(shù)決定的, 而是由設置處理多少行決定,

? 比如一個文件 100行, 設置NlineInputFormat 處理2行,那么會產(chǎn)生50個map任務, 每個map任務

? 仍舊一行行的處理 會調(diào)用2次map函數(shù)、

package inputformat;import java.net.URI;import org.apache.hadoop.conf.Configuration; import org.apache.hadoop.fs.FileSystem; import org.apache.hadoop.fs.Path; import org.apache.hadoop.io.LongWritable; import org.apache.hadoop.io.Text; import org.apache.hadoop.mapreduce.Job; import org.apache.hadoop.mapreduce.Mapper; import org.apache.hadoop.mapreduce.Reducer; import org.apache.hadoop.mapreduce.lib.input.FileInputFormat; import org.apache.hadoop.mapreduce.lib.input.NLineInputFormat; import org.apache.hadoop.mapreduce.lib.output.FileOutputFormat;/*** TextInputFormat處理的數(shù)據(jù)來自于一個InputSplit。InputSplit是根據(jù)大小劃分的。* NLineInputFormat決定每個Mapper處理的記錄數(shù)是相同的。* 設置map處理行數(shù)多,則需要產(chǎn)生的map個數(shù)就會減少*/ public class MyNLineInputFormatApp {private static final String INPUT_PATH = "hdfs://hadoop0:9000/hello";private static final String OUT_PATH = "hdfs://hadoop0:9000/out";public static void main(String[] args) throws Exception {// 定義conf Configuration conf = new Configuration();//設置每個map可以處理多少條記錄,默認是1行,這里設置為每個map處理的記錄數(shù)都是2個 conf.setInt("mapreduce.input.lineinputformat.linespermap", 2);final FileSystem filesystem = FileSystem.get(new URI(OUT_PATH), conf);if (filesystem.exists(new Path(OUT_PATH))) {filesystem.delete(new Path(OUT_PATH), true);}// 定義job final Job job = new Job(conf, MyNLineInputFormatApp.class.getSimpleName());job.setJarByClass(MyNLineInputFormatApp.class);// 定義 inputformat要處理的文件位置和具體處理實現(xiàn)類 FileInputFormat.setInputPaths(job, INPUT_PATH);job.setInputFormatClass(NLineInputFormat.class);// 設置map job.setMapperClass(MyMapper.class);job.setMapOutputKeyClass(Text.class);job.setMapOutputValueClass(LongWritable.class);// 設置reduce job.setReducerClass(MyReducer.class);job.setOutputKeyClass(Text.class);job.setOutputValueClass(LongWritable.class);// 設置處理最終結(jié)果輸出路徑 FileOutputFormat.setOutputPath(job, new Path(OUT_PATH));job.waitForCompletion(true);}public static class MyMapper extends Mapper<LongWritable, Text, Text, LongWritable> {//解析源文件會產(chǎn)生2個鍵值對,分別是<0,hello you><10,hello me>;所以map函數(shù)會被調(diào)用2次 protected void map(LongWritable key, Text value, org.apache.hadoop.mapreduce.Mapper<LongWritable, Text, Text, LongWritable>.Context context) throws java.io.IOException, InterruptedException {//為什么要把hadoop類型轉(zhuǎn)換為java類型? final String line = value.toString();final String[] splited = line.split("\t");//產(chǎn)生的<k,v>對少了 for (String word : splited) {//在for循環(huán)體內(nèi),臨時變量word的出現(xiàn)次數(shù)是常量1 context.write(new Text(word), new LongWritable(1));}};}//map函數(shù)執(zhí)行結(jié)束后,map輸出的<k,v>一共有4個,分別是<hello,1><you,1><hello,1><me,1> //分區(qū),默認只有一個區(qū) //排序后的結(jié)果:<hello,1><hello,1><me,1><you,1> //分組后的結(jié)果:<hello,{1,1}> <me,{1}> <you,{1}> //歸約(可選) //map產(chǎn)生的<k,v>分發(fā)到reduce的過程稱作shuffle public static class MyReducer extends Reducer<Text, LongWritable, Text, LongWritable> {//每一組調(diào)用一次reduce函數(shù),一共調(diào)用了3次 //分組的數(shù)量與reduce函數(shù)的調(diào)用次數(shù)有什么關系? //reduce函數(shù)的調(diào)用次數(shù)與輸出的<k,v>的數(shù)量有什么關系? protected void reduce(Text key, java.lang.Iterable<LongWritable> values, org.apache.hadoop.mapreduce.Reducer<Text, LongWritable, Text, LongWritable>.Context context) throws java.io.IOException, InterruptedException {//count表示單詞key在整個文件中的出現(xiàn)次數(shù) long count = 0L;for (LongWritable times : values) {count += times.get();}context.write(key, new LongWritable(count));};} }

?

四、KeyValueInputFormat

?如果行中有分隔符,那么分隔符前面的作為key,后面的作為value

?如果行中沒有分隔符,那么整行作為key,value為空

?默認分隔符為 \t

package inputformat;import java.net.URI;import org.apache.hadoop.conf.Configuration; import org.apache.hadoop.fs.FileSystem; import org.apache.hadoop.fs.Path; import org.apache.hadoop.io.LongWritable; import org.apache.hadoop.io.Text; import org.apache.hadoop.mapreduce.Job; import org.apache.hadoop.mapreduce.Mapper; import org.apache.hadoop.mapreduce.lib.input.FileInputFormat; import org.apache.hadoop.mapreduce.lib.input.KeyValueLineRecordReader; import org.apache.hadoop.mapreduce.lib.input.KeyValueTextInputFormat; import org.apache.hadoop.mapreduce.lib.output.FileOutputFormat;/*** 以hello文件內(nèi)容為如下為例:* hello you* hello me* <p>* 特點是:* Each line is divided into key and value parts by a separator byte. If no* such a byte exists, the key will be the entire line and value will be empty* 通過分隔符將每一行切分 切分后結(jié)果分別作為key value* 如果沒有分隔符,那么正一行就作為key 值為null* 如果一行中有多個制表符的話,會取第一個作為key 剩余作為value,后面的也不會再分割了* <p>* KeyValueInputForamt他用特定分隔符分割來形成自己的key value,看源碼(KeyValueLineRecordReader下為\t)默制默認分隔符為制表符* <p>* 輸出結(jié)果為:* hello 1* you 1* helllo 1* me 1*/ public class MyKeyValueTextInputFormatApp {private static final String INPUT_PATH = "hdfs://hadoop0:9000/hello";private static final String OUT_PATH = "hdfs://hadoop0:9000/out";public static void main(String[] args) throws Exception {Configuration conf = new Configuration();conf.set(KeyValueLineRecordReader.KEY_VALUE_SEPERATOR, "\t");final FileSystem filesystem = FileSystem.get(new URI(OUT_PATH), conf);if (filesystem.exists(new Path(OUT_PATH))) {filesystem.delete(new Path(OUT_PATH), true);}// 創(chuàng)建job final Job job = new Job(conf, MyKeyValueTextInputFormatApp.class.getSimpleName());job.setJarByClass(MyKeyValueTextInputFormatApp.class);// 設置InputFormat處理文件路徑和具體操作實體類 FileInputFormat.setInputPaths(job, INPUT_PATH);job.setInputFormatClass(KeyValueTextInputFormat.class);// 設置map job.setMapperClass(MyMapper.class);job.setMapOutputKeyClass(Text.class);job.setMapOutputValueClass(LongWritable.class);// 設置reduce 這里reduce設置為0 job.setNumReduceTasks(0);job.setOutputKeyClass(Text.class);job.setOutputValueClass(LongWritable.class);// 設置最終結(jié)果輸出路徑 FileOutputFormat.setOutputPath(job, new Path(OUT_PATH));job.waitForCompletion(true);}public static class MyMapper extends Mapper<Text, Text, Text, LongWritable> {protected void map(Text key, Text value, org.apache.hadoop.mapreduce.Mapper<Text, Text, Text, LongWritable>.Context context) throws java.io.IOException, InterruptedException {context.write(key, new LongWritable(1));context.write(value, new LongWritable(1));}} }

GenericWritable

適用于 不同輸入源下,多map輸出類型不同

package inputformat;import java.net.URI;import org.apache.hadoop.conf.Configuration; import org.apache.hadoop.fs.FileSystem; import org.apache.hadoop.fs.Path; import org.apache.hadoop.io.GenericWritable; import org.apache.hadoop.io.LongWritable; import org.apache.hadoop.io.Text; import org.apache.hadoop.io.Writable; import org.apache.hadoop.mapreduce.Job; import org.apache.hadoop.mapreduce.Mapper; import org.apache.hadoop.mapreduce.Reducer; import org.apache.hadoop.mapreduce.lib.input.KeyValueTextInputFormat; import org.apache.hadoop.mapreduce.lib.input.MultipleInputs; import org.apache.hadoop.mapreduce.lib.input.TextInputFormat; import org.apache.hadoop.mapreduce.lib.output.FileOutputFormat;/*** MyMapper, MyMapper2的 v2輸出類型一個是longWritable,一個是String, 兩者需要統(tǒng)一成一個輸出類型,* 以方便job在設置v2類型----> job.setMapOutputValueClass(MyGenericWritable.class)* <p>* 文件hello 內(nèi)容為:* hello you* hello me* <p>* 文件hello2 內(nèi)容為:* hello,you* hello,me** @author zm* <p>* <p>* 結(jié)果:* [root@master hadoop]# hadoop fs -text /out/part-r-00000* Warning: $HADOOP_HOME is deprecated.* <p>* hello 4* me 2* you 2*/ public class MyGenericWritableApp {private static final String OUT_PATH = "hdfs://master:9000/out";public static void main(String[] args) throws Exception {Configuration conf = new Configuration();final FileSystem filesystem = FileSystem.get(new URI(OUT_PATH), conf);if (filesystem.exists(new Path(OUT_PATH))) {filesystem.delete(new Path(OUT_PATH), true);}final Job job = new Job(conf, MyGenericWritableApp.class.getSimpleName());job.setJarByClass(MyGenericWritableApp.class);// 設置每種輸入文件的位置 具體切分文件類 和對應的處理map類 MultipleInputs.addInputPath(job, new Path("hdfs://master:9000/hello"), KeyValueTextInputFormat.class, MyMapper.class);MultipleInputs.addInputPath(job, new Path("hdfs://master:9000/hello2"), TextInputFormat.class, MyMapper2.class);// 設置map //job.setMapperClass(MyMapper.class); //不應該有這一行 上面已經(jīng)設置好了map類 job.setMapOutputKeyClass(Text.class);job.setMapOutputValueClass(MyGenericWritable.class);// 設置reduce job.setReducerClass(MyReducer.class);job.setOutputKeyClass(Text.class);job.setOutputValueClass(LongWritable.class);// 設置輸出結(jié)果存放路徑 FileOutputFormat.setOutputPath(job, new Path(OUT_PATH));job.waitForCompletion(true);}public static class MyMapper extends Mapper<Text, Text, Text, MyGenericWritable> {//解析源文件會產(chǎn)生2個鍵值對,分別是<hello,you> <hello,me>;所以map函數(shù)會被調(diào)用2次 // 處理后結(jié)果為: <hello,(MyGenericWritable(1),MyGenericWritable(1))> <you,(MyGenericWritable(1))> <me,(MyGenericWritable(1))> protected void map(Text key, Text value, org.apache.hadoop.mapreduce.Mapper<Text, Text, Text, MyGenericWritable>.Context context) throws java.io.IOException, InterruptedException {context.write(key, new MyGenericWritable(new LongWritable(1)));context.write(value, new MyGenericWritable(new LongWritable(1)));};}public static class MyMapper2 extends Mapper<LongWritable, Text, Text, MyGenericWritable> {//解析源文件會產(chǎn)生2個鍵值對,分別是<0,(hello,you)><10,(hello,me)>;鍵值對內(nèi)的()是我自己加上去的為了便于和前面偏移量的,區(qū)分開來 所以map函數(shù)會被調(diào)用2次 // 處理后結(jié)果為: <hello,(MyGenericWritable("1"),MyGenericWritable("1"))> <you,(MyGenericWritable("1"))> <me,(MyGenericWritable("1"))> protected void map(LongWritable key, Text value, org.apache.hadoop.mapreduce.Mapper<LongWritable, Text, Text, MyGenericWritable>.Context context) throws java.io.IOException, InterruptedException {//為什么要把hadoop類型轉(zhuǎn)換為java類型? final String line = value.toString();final String[] splited = line.split(",");//產(chǎn)生的<k,v>對少了 for (String word : splited) {System.out.println("MyMapper2 word is:" + word);//在for循環(huán)體內(nèi),臨時變量word的出現(xiàn)次數(shù)是常量1 final Text text = new Text("1");context.write(new Text(word), new MyGenericWritable(text));}};}//map產(chǎn)生的<k,v>分發(fā)到reduce的過程稱作shuffle public static class MyReducer extends Reducer<Text, MyGenericWritable, Text, LongWritable> {//每一組調(diào)用一次reduce函數(shù),一共調(diào)用了3次 //分組的數(shù)量與reduce函數(shù)的調(diào)用次數(shù)有什么關系? //reduce函數(shù)的調(diào)用次數(shù)與輸出的<k,v>的數(shù)量有什么關系? protected void reduce(Text key, java.lang.Iterable<MyGenericWritable> values, org.apache.hadoop.mapreduce.Reducer<Text, MyGenericWritable, Text, LongWritable>.Context context) throws java.io.IOException, InterruptedException {//count表示單詞key在整個文件中的出現(xiàn)次數(shù) long count = 0L;for (MyGenericWritable times : values) {final Writable writable = times.get();if (writable instanceof LongWritable) {count += ((LongWritable) writable).get();}if (writable instanceof Text) {count += Long.parseLong(((Text) writable).toString());}}context.write(key, new LongWritable(count));};}/*** @author zm*/public static class MyGenericWritable extends GenericWritable {public MyGenericWritable() {}public MyGenericWritable(Text text) {super.set(text);}public MyGenericWritable(LongWritable longWritable) {super.set(longWritable);}// 數(shù)組里面存放要處理的類型 @Overrideprotected Class<? extends Writable>[] getTypes() {return new Class[]{LongWritable.class, Text.class};}} }

?

五、CombineTextInputFormat

將輸入源目錄下多個小文件 合并成一個文件(split)來交給mapreduce處理 這樣只會生成一個map任務
比如用戶給的文件全都是10K那種的文件, 其內(nèi)部也是用的TextInputFormat 當合并大小大于(64M)128M的時候,
也會產(chǎn)生對應個數(shù)的split

SequenceFile

?也是合并還沒明白和CombineTextInputFormat的區(qū)別在哪里:

import java.io.File; import java.io.IOException; import java.net.URI; import java.net.URISyntaxException; import java.util.Collection;import org.apache.commons.io.FileUtils; import org.apache.hadoop.conf.Configuration; import org.apache.hadoop.fs.FileSystem; import org.apache.hadoop.fs.Path; import org.apache.hadoop.io.BytesWritable; import org.apache.hadoop.io.IOUtils; import org.apache.hadoop.io.SequenceFile; import org.apache.hadoop.io.SequenceFile.Writer; import org.apache.hadoop.io.Text;public class SequenceFileMore {public static void main(String[] args) throws IOException, URISyntaxException {final Configuration conf = new Configuration();final FileSystem fs = FileSystem.get(new URI("hdfs://h2single:9000/"), conf);Path path = new Path("/sf_logs");//寫操作 final Writer writer = new SequenceFile.Writer(fs, conf, path, Text.class, BytesWritable.class);// false表示不迭代子目錄 Collection<File> listFiles = FileUtils.listFiles(new File("/usr/local/logs"), new String[]{"log"}, false);for (File file : listFiles) { // 將/usr/local/logs下的所有.log文件 以對應文件文件名為key 對應文件內(nèi)容字節(jié)數(shù)組為value 共同寫入到/sf_logs內(nèi) String fileName = file.getName();Text key = new Text(fileName);byte[] bytes = FileUtils.readFileToByteArray(file);BytesWritable value = new BytesWritable(bytes);writer.append(key, value);}IOUtils.closeStream(writer);//讀操作 final SequenceFile.Reader reader = new SequenceFile.Reader(fs, path, conf);final Text key = new Text();final BytesWritable val = new BytesWritable();while (reader.next(key, val)) {String fileName = "/usr/local/logs_bak/" + key.toString();File file = new File(fileName);FileUtils.writeByteArrayToFile(file, val.getBytes());}IOUtils.closeStream(reader);}}

?

MultipleInputs

對應于 多個文件處理類型下 比如又要處理數(shù)據(jù)庫的文件 同時又要處理小文件

這里僅將main函數(shù)拼接展示下,各自對應的mapper類自己去寫:

?

總結(jié)

以上是生活随笔為你收集整理的Hadoop入门(十一)Mapreduce的InputFomrat各种子类的全部內(nèi)容,希望文章能夠幫你解決所遇到的問題。

如果覺得生活随笔網(wǎng)站內(nèi)容還不錯,歡迎將生活随笔推薦給好友。

日韩av在线资源 | 精品美女视频 | 国产精品18videosex性欧美 | 久久久久久久久久久久久国产精品 | 国产精品扒开做爽爽的视频 | 久久久久久久久久久网站 | 美女视频久久 | 欧美激情xxxx| 国产一区免费观看 | 永久免费看av| 香蕉手机在线 | 精品国产乱码一区二区三区在线 | 伊人手机在线 | 色网免费观看 | 天堂va在线高清一区 | 91av视频在线免费观看 | 日本中文字幕在线视频 | 免费av一级电影 | 国产精品人成电影在线观看 | 日韩福利在线观看 | 亚洲精品xxx | 日韩在线精品视频 | 日韩精品一区二区三区视频播放 | 免费在线观看污网站 | 国产欧美精品一区二区三区四区 | 欧美一级淫片videoshd | 婷婷深爱网| 天天操网| 91最新地址永久入口 | 黄色日批网站 | 欧美aaaxxxx做受视频 | 日韩1级片 | 欧美色888 | 久久久久国产一区二区三区四区 | 狂野欧美激情性xxxx | 久久久久久久久久免费视频 | 久久成人午夜视频 | 亚洲午夜久久久久久久久电影网 | 国产精品久久久久久超碰 | 日韩中文字幕一区 | 久久99久久99精品中文字幕 | 亚洲精品在线资源 | 国产日韩精品一区二区在线观看播放 | 久久免费视频8 | 中文字幕一区二区在线播放 | 亚洲欧美精品在线 | 日韩精品一区二区三区在线视频 | 国产美女视频黄a视频免费 久久综合九色欧美综合狠狠 | 丝袜制服天堂 | 99久热在线精品 | 日韩电影久久久 | 视频 国产区 | 久久国产成人午夜av影院潦草 | 国产91精品看黄网站在线观看动漫 | 一区二区三区四区在线 | 高清国产在线一区 | 欧美一区二区伦理片 | 麻豆av一区二区三区在线观看 | 久久久久久免费网 | 伊人六月 | 国产日本在线播放 | 精品99在线观看 | 久久免费视频这里只有精品 | 91香蕉视频 mp4 | 一区 二区电影免费在线观看 | av不卡免费在线观看 | 婷婷九月激情 | 中文字幕免 | av中文字幕在线观看网站 | 久久久午夜精品福利内容 | 亚洲欧美日韩一区二区三区在线观看 | 五月天综合在线 | 精品国产乱码久久久久久浪潮 | www亚洲精品| 欧美午夜精品久久久久久浪潮 | 天天色天天综合网 | 91激情视频在线 | 视频在线精品 | 日韩精品视频免费在线观看 | 91精品在线播放 | 天天综合在线观看 | 久草视频资源 | 一区二区三区在线电影 | 久草国产精品 | 日韩视频欧美视频 | 亚洲天堂网站视频 | 激情五月亚洲 | 国产精品9999 | 国产精品精品国产 | 激情五月婷婷网 | 五月综合色| 国产无套精品久久久久久 | 欧美精品久久久久久久久久久 | 狠狠88综合久久久久综合网 | 美女视频黄的免费的 | 日韩欧美国产视频 | 热久久在线视频 | 国产精品一区二区久久精品爱微奶 | 精品亚洲免费视频 | 激情导航 | 亚洲免费永久精品国产 | 亚洲成人精品影院 | 国产高清一| 激情电影影院 | 国产一级片直播 | 91黄色小视频 | 亚洲午夜小视频 | 一级黄色电影网站 | 看片黄网站 | 久久人人爽人人片av | 福利久久久 | 久久精品激情 | 久久免费大片 | 久久只精品99品免费久23小说 | 久久九九国产视频 | 国产午夜精品久久久久久久久久 | 最新久久久| 欧美精品久久久久久久亚洲调教 | 久久兔费看a级 | 天天综合网入口 | 97超碰精品| 欧美日产一区 | 91视视频在线直接观看在线看网页在线看 | 色婷五月天 | 国产午夜精品久久 | 九九九九九国产 | 精品在线观看一区二区 | 99久热在线精品视频成人一区 | 亚洲在线色 | 久久精品国产亚洲 | 亚洲一区免费在线 | 亚洲精品www.| 亚洲国产精品人久久电影 | 国产人成在线视频 | 国产91在线 | 美洲 | 久久黄网站 | 福利久久久 | 97视频免费看 | 天天射天天操天天色 | 国产精品福利在线 | 日韩精品中文字幕在线不卡尤物 | 四月婷婷在线观看 | 久久免费视频网站 | 精品视频资源站 | 天天操欧美| 午夜性福利 | 天天操天天添天天吹 | 国产视频一二区 | 91麻豆.com | 五月天精品视频 | 99精品免费网 | 亚洲91中文字幕无线码三区 | 中文字幕高清 | 中中文字幕av在线 | 视频在线国产 | 狠狠干天天操 | 日韩影视大全 | 婷婷在线五月 | 天天玩夜夜操 | 麻豆久久久久 | 91精品色| av日韩在线网站 | 中文字幕黄色 | 欧美性大胆 | 中文字幕一区二区三区精华液 | 国产精品久久久久久久久久三级 | 成人毛片网 | 亚洲精品xx | 久久国产精品二国产精品中国洋人 | 噜噜色官网 | 欧美黄色成人 | 91视频在线免费 | 伊人小视频 | 国产免费视频一区二区裸体 | 国产精品久久久久久久免费观看 | 国产97在线看 | 久久手机精品视频 | 成人黄色毛片 | 999久久国产| 日韩理论在线观看 | 黄色网www| 成人小电影在线看 | 国产精品mv | 成人免费看片网址 | 久久一区二区三区国产精品 | 欧美久久久久久久久 | 亚洲日本精品 | 久久国产网 | 免费aa大片 | 日韩在线视频免费观看 | 日韩网站在线看片你懂的 | 最近中文字幕久久 | 93久久精品日日躁夜夜躁欧美 | 欧美91视频 | 不卡视频国产 | 久久久国产电影 | 国产不卡精品 | 久久亚洲私人国产精品va | 久久久久久久亚洲精品 | 亚洲综合色婷婷 | 91看片淫黄大片在线播放 | 精品国产一区二区三区久久 | 狠狠色伊人亚洲综合成人 | 日本一区二区免费在线观看 | 久久午夜网 | 免费高清在线视频一区· | 在线观看中文字幕dvd播放 | 深夜免费福利视频 | 99热在线观看 | 日韩最新在线 | 手机av看片 | 美女精品在线观看 | 精品国产亚洲一区二区麻豆 | 亚洲免费在线播放视频 | 人人人爽 | 久久久亚洲影院 | 精品国产区 | 99久热在线精品视频成人一区 | 九色精品免费永久在线 | 天天玩天天操天天射 | 香蕉网在线观看 | 久草新在线| 日韩免费高清 | www.超碰97.com| 亚洲国产精品999 | 久久99精品久久久久久 | 97视频在线观看播放 | 九九综合九九综合 | 国产精品久久久久9999 | 午夜精品一区二区三区可下载 | 中文字幕电影一区 | 中文字幕av在线电影 | 亚洲婷久久 | 国产精品免费在线播放 | 精品成人a区在线观看 | 欧美9999 | 日韩一区在线免费观看 | 欧美日本三级 | 日韩欧美在线一区 | 天天操天天摸天天射 | 激情视频一区二区三区 | 欧美一区二区精品在线 | 天天色天天色 | 9999激情| 亚洲japanese制服美女 | 丝袜美腿亚洲综合 | 色网免费观看 | 欧美韩国在线 | 91黄色免费看 | 91九色视频在线观看 | 中文在线字幕观看电影 | 国产中文字幕大全 | 色网站黄| 青春草视频在线播放 | 日韩精品一区二区三区免费观看视频 | 久久久久久国产精品免费 | 97色在线观看免费视频 | 国产一级二级在线观看 | 综合激情网... | 日韩欧美视频免费观看 | 久久久一本精品99久久精品66 | 亚洲另类在线视频 | 天天骚夜夜操 | 免费观看久久 | 国产精品免费小视频 | 久久91网| 天天搞天天 | 国产色就色| 天天色中文 | 国产高清精品在线观看 | 国内揄拍国内精品 | 4438全国亚洲精品在线观看视频 | 国产原创中文在线 | 99久久久久久久久久 | 亚洲欧美观看 | 91福利视频免费观看 | 91| 欧美a级片网站 | 九九九热精品免费视频观看 | 色瓜| 波多野结衣在线观看视频 | 亚洲精品ww| 欧美成年网站 | 日韩视频专区 | 亚洲国产成人高清精品 | 在线播放一区二区三区 | 日韩理论| 国产精品久久久久四虎 | 精品91在线| 五月婷婷综合激情 | 日本韩国精品一区二区在线观看 | 天天综合网天天 | 黄网站色视频 | 亚洲黄色免费在线看 | 人人cao| 成人免费中文字幕 | 国产第一页在线播放 | 亚州国产精品 | 亚洲专区中文字幕 | 亚洲影视九九影院在线观看 | 91污视频在线观看 | 久久99热这里只有精品 | 日韩亚洲欧美中文字幕 | 久草免费新视频 | 激情www | 三级av在线 | 国产亚洲一区二区三区 | 在线天堂视频 | 国产亚洲精品中文字幕 | 亚洲精品xxxx | 亚洲精品www| 一区二区久久 | 在线播放 日韩专区 | 久久精品中文字幕少妇 | 免费看片网址 | 中文字幕在线观看国产 | 中文视频一区二区 | 亚洲精品乱码久久久久久久久久 | 国产一区在线免费观看视频 | 免费h在线观看 | 欧洲性视频 | 一级黄色片在线播放 | 国产精品视频99 | www.天天成人国产电影 | 国产精品亚洲精品 | 97精产国品一二三产区在线 | 中文字幕日韩无 | 久草久 | 日韩电影在线看 | 欧美午夜精品久久久久久浪潮 | 黄色网在线播放 | 色.www| 国产精品婷婷 | 国产精品美女视频网站 | 美女网站色免费 | 成人啪啪18免费游戏链接 | av线上免费看 | 国产99久久久精品 | 中文字幕在线观看完整版 | 亚洲精品中文字幕在线 | 欧美性成人 | 久久久久久久久精 | 精品久久久999 | 全黄网站| 色偷偷88欧美精品久久久 | 精品一区二区精品 | av网在线观看 | 天天爽天天爽夜夜爽 | 成人黄色在线 | 狠狠做深爱婷婷综合一区 | 亚洲午夜精品在线观看 | 成人av在线直播 | 福利精品在线 | av福利在线免费观看 | 鲁一鲁影院 | 精品视频中文字幕 | 黄p在线播放 | 欧美精品小视频 | 天天射天天干 | 米奇狠狠狠888 | 国产精品一区二区在线播放 | 成人黄色小说网 | 中文字幕免费在线看 | 99视频国产在线 | 中文字幕在线网址 | 久久天天躁夜夜躁狠狠85麻豆 | 亚洲丝袜一区二区 | 婷婷在线视频观看 | 99免费观看视频 | 久久看片网站 | av网站播放 | 国产18精品乱码免费看 | 国产a视频免费观看 | 三级动图 | 欧美日韩亚洲在线观看 | 91cn国产在线 | a电影免费看 | 又爽又黄又无遮挡网站动态图 | 日韩欧美有码在线 | 久久三级视频 | 99色婷婷| 二区三区在线 | 久久精品牌麻豆国产大山 | 免费观看全黄做爰大片国产 | 超碰com | 亚洲一区精品人人爽人人躁 | 激情深爱五月 | 日韩欧美在线播放 | 久久99亚洲精品久久久久 | 欧美激情第28页 | 久久久久久福利 | 久久蜜臀一区二区三区av | 国产中文字幕在线播放 | 五月婷婷六月丁香 | 久久精品毛片 | 国产探花视频在线播放 | 久久久精品小视频 | av大片网址| 欧美精品少妇xxxxx喷水 | 欧美日韩久久久 | 在线91视频 | 亚洲黄色在线观看 | 久久久久久免费网 | 国产精品久久久影视 | 女人18毛片90分钟 | 久久99久久99免费视频 | 亚洲日韩欧美一区二区在线 | 国产精品99久久久久久武松影视 | 免费成人黄色av | 精品一区精品二区 | 免费高清男女打扑克视频 | 久久电影中文字幕视频 | 色美女在线 | 狠狠干夜夜爽 | 色综合天天天天做夜夜夜夜做 | 婷婷久月| 日韩影视在线观看 | 国产亚洲综合性久久久影院 | 91亚洲永久精品 | 国产精品网在线观看 | 亚洲3级 | 91视频 - 88av | 91视频在线国产 | 色综合久久精品 | 精品嫩模福利一区二区蜜臀 | 九九日九九操 | 黄色三级免费看 | 国产精品免费一区二区 | 亚洲国产精品成人精品 | 日韩免费一级a毛片在线播放一级 | av中文字幕剧情 | 日韩久久视频 | 国产精品福利一区 | 国产福利电影网址 | 国产午夜精品一区二区三区欧美 | 婷婷久月 | 国产欧美日韩一区 | 亚洲永久精品国产 | 亚洲爽爽网 | 国产高清 不卡 | 在线观看国产麻豆 | 天天射天天爽 | 一区 在线观看 | 99精品在线看 | 精品久久久久一区二区国产 | 久久久国产网站 | 日韩中文字幕亚洲一区二区va在线 | 欧美一区二区三区在线看 | 国产日本在线观看 | 欧美一级片免费播放 | 操操操综合 | 色综合夜色一区 | 在线观看精品国产 | 日日躁你夜夜躁你av蜜 | 91在线永久| 久久视| av成人在线观看 | 久久歪歪 | 91麻豆精品久久久久久 | 日韩av看片 | 在线观看麻豆av | 91尤物在线播放 | 国产日韩欧美精品在线观看 | 国产一区二三区好的 | 涩av在线 | 人人网av | 精品视频在线观看 | 国产97在线视频 | 久久高清免费观看 | 婷婷伊人五月 | 色婷婷视频在线 | 91av综合 | 免费在线电影网址大全 | 久久理论视频 | 欧美精品久久久久 | 亚洲精色 | 97超碰资源总站 | 国产xxxx| 亚洲狠狠婷婷综合久久久 | 日韩av在线小说 | 成人网在线免费视频 | 蜜桃视频日本 | 国产成人综合在线观看 | 手机在线观看国产精品 | av网在线观看 | a黄色| 成人97人人超碰人人99 | 在线观看日本韩国电影 | 久热爱| 91麻豆精品国产自产 | 1024手机看片国产 | 粉嫩av一区二区三区四区在线观看 | 久久99电影 | 91大神免费在线观看 | 女人高潮特级毛片 | 色.com| 亚洲精品中文在线 | 国产流白浆高潮在线观看 | 福利电影一区二区 | 亚洲精品国产自产拍在线观看 | www.天天干 | 久久这里只有精品久久 | 精品国产一区二区三区久久 | 在线国产福利 | 久久九九久久精品 | 日本视频不卡 | 久久久久久高潮国产精品视 | 午夜电影 电影 | 99视| 一区二区三区 中文字幕 | 亚洲专区路线二 | 中文字幕日韩国产 | 2018好看的中文在线观看 | www.在线观看视频 | 九九免费观看视频 | 精品一区二区视频 | 超碰97人人爱 | 欧美成人精品欧美一级乱 | 日本精品久久久一区二区三区 | 中文视频在线看 | av网站大全免费 | 五月婷婷中文 | 激情欧美丁香 | 国产看片网站 | aaa日本高清在线播放免费观看 | 午夜av免费在线观看 | 日韩午夜精品 | 91久久久久久久一区二区 | 国产三级久久久 | 91视频在线观看免费 | 日韩一级片大全 | 精品资源在线 | 久久久久久久久久久久av | 狠狠色综合欧美激情 | 亚洲国产精品第一区二区 | 久久久免费高清视频 | 欧日韩在线视频 | 麻豆传媒视频在线播放 | 久久久久国产精品一区二区 | www.五月婷 | 丁香花在线观看视频在线 | 婷婷色网址 | 国产成a人亚洲精v品在线观看 | www欧美xxxx| 81国产精品久久久久久久久久 | a电影在线观看 | 国产黄色片免费在线观看 | 人人爱天天操 | 亚洲精品在线观看免费 | 久久夜色精品亚洲噜噜国4 午夜视频在线观看欧美 | 欧美日韩视频在线观看一区二区 | 97av视频| 欧美成a人片在线观看久 | 热99在线| 大荫蒂欧美视频另类xxxx | 国产精品中文 | 中文字幕色网站 | 亚洲精品国产精品国自产 | 国产亚洲视频在线观看 | av黄色免费看 | 国产成人在线网站 | 久久国产色 | 91污在线 | 欧美作爱视频 | 亚洲黄色免费观看 | 在线网址你懂得 | 成人av电影免费在线观看 | 精品久久久久久久 | 日本在线中文在线 | 午夜色场| 手机在线视频福利 | 国产精品2020 | 亚洲婷婷伊人 | 国产一区免费 | 成人免费观看av | 99国产精品视频免费观看一公开 | 黄色片免费在线 | 五月婷婷激情网 | 国产亚洲视频在线免费观看 | 亚洲永久精品国产 | 在线观看视频国产一区 | 久久理论电影 | 国产视频高清 | 久久精品老司机 | 久草成人在线 | 国产美女无遮挡永久免费 | 全久久久久久久久久久电影 | 国内精品久久久久影院日本资源 | 国产精品免费观看国产网曝瓜 | www.玖玖玖 | 青草草在线 | 国产精品久久二区 | 又色又爽又激情的59视频 | 久久国产精品免费视频 | 亚州av免费 | 日韩中文字幕国产 | 国产99久久久国产精品 | 国产不卡免费 | 久久免费电影网 | 国产美女精品人人做人人爽 | 亚洲国产剧情av | 日韩欧美69 | 成人黄视频 | 欧美一级黄色网 | 超级碰视频 | 天天躁日日躁狠狠躁 | 国产精品一区二区久久精品爱涩 | 国产黄色大片 | 日韩av不卡在线播放 | 国产一区二区三区在线免费观看 | 婷婷国产在线观看 | 欧美va在线观看 | 久久久久蜜桃 | 亚洲精品乱码久久久久久久久久 | 国产精品一级在线 | 91系列在线 | 在线视频国产区 | 亚洲视频axxx | 中国一级片免费看 | 免费色视频网站 | 久久精品这里热有精品 | 在线看福利av| 欧美日韩视频在线观看免费 | 成人a免费 | 精品一区二区久久久久久久网站 | 久久久久久久久久久久久久电影 | 国产精品99久久免费观看 | 日韩在线观看视频一区二区三区 | 最新av免费| 国产小视频免费在线观看 | 一区在线电影 | 久久99深爱久久99精品 | 欧美色888 | 99r在线精品| 99国产视频在线 | 丝袜足交在线 | 伊人色综合久久天天网 | 日韩电影中文字幕在线 | 中文字幕精品三区 | 人操人| 成人av免费在线播放 | 久久艹人人 | 日本精品久久久久中文字幕5 | 丁香视频全集免费观看 | 五月婷婷在线播放 | 五月婷婷操 | 国产精品一区在线观看 | 色视频在线看 | 久久久精品欧美一区二区免费 | 中文字幕第| 久久有精品 | 国产不卡高清 | 久久草在线视频国产 | 中文字幕在线观看2018 | 激情五月婷婷丁香 | 91插插视频 | 久久九九国产视频 | 免费av片在线 | 国产一级视屏 | 日韩av伦理片 | 四虎影视www | 久色 网 | 日韩综合在线观看 | 欧美91在线 | 免费视频一区二区 | 在线免费成人 | 一区二区三区精品在线 | 超级碰视频 | 国产成人三级 | 免费又黄又爽视频 | 在线看av网址| 久久精品999 | 一区 二区电影免费在线观看 | 成人永久免费 | 欧美日韩在线观看视频 | 久久精品欧美日韩精品 | 日日操操| 人人爽人人看 | 久久久久国产精品午夜一区 | 久久九九国产视频 | 在线观看理论 | www.福利视频 | 免费看的黄色录像 | 在线观看91av | 精品99视频| 精品国产欧美一区二区 | 日韩一区二区免费在线观看 | 天天干夜夜夜操天 | 精品一区二区综合 | 国产精品免费av | 国产精品18久久久久久久久久久久 | 香蕉看片| 日本一区二区三区视频在线播放 | 天天躁日日躁狠狠 | 99精品在线免费在线观看 | 久久久久久久久福利 | 97电影网手机版 | 五月天综合激情网 | 久久你懂的 | www好男人 | 成人教育av | 国产中文字幕一区 | 成人免费视频a | 狠狠的干狠狠的操 | 亚洲影院国产 | 美女网站视频色 | 六月丁香激情综合 | 亚洲精品乱码白浆高清久久久久久 | 91av99| 粉嫩av一区二区三区四区在线观看 | 超碰97国产 | 91理论片午午伦夜理片久久 | 婷婷伊人综合亚洲综合网 | 免费三级骚 | 久久亚洲欧美日韩精品专区 | 99热在线国产 | 国产一区二区三区免费在线 | 国语精品免费视频 | av丁香花 | 99久久精品免费看国产麻豆 | 国产精品久久久久久久99 | 人人澡超碰碰97碰碰碰软件 | 国产日韩精品一区二区 | 黄在线免费观看 | 欧美中文字幕久久 | 欧美午夜精品久久久久久孕妇 | av在线收看 | 91看片在线观看 | 日本韩国中文字幕 | 亚洲精品视频网站在线观看 | 亚洲日本在线视频观看 | 天海冀一区二区三区 | 亚洲激精日韩激精欧美精品 | 日韩精品一区二区免费 | 狠狠操夜夜 | 狠狠操影视 | 欧美日韩综合在线观看 | 性色av香蕉一区二区 | 欧美一级看片 | 成人av在线电影 | 91亚·色 | 久久精品国产免费看久久精品 | 国产精品av在线 | 91精品国产乱码在线观看 | 国产亚洲精品免费 | 国产一区二区精品久久 | 四虎影视欧美 | 91视频免费 | 一区二区不卡在线观看 | 国产流白浆高潮在线观看 | 美女av电影 | 99国产免费网址 | 国产午夜在线 | 麻豆视频免费入口 | 91精品国产成人观看 | 狠狠操狠狠操 | 国产精品系列在线观看 | 在线国产激情视频 | 婷婷亚洲五月色综合 | 成人av免费播放 | 亚洲一级黄色片 | av韩国在线 | www亚洲精品 | a级国产乱理论片在线观看 特级毛片在线观看 | 精品一区二区久久久久久久网站 | 日韩黄色一区 | 国产精品久久久电影 | 日韩理论片 | 亚洲永久免费av | 国产成人在线观看 | 精品国产一区二区三区四区在线观看 | 日韩一级电影在线观看 | 国产精品久久久久久欧美 | 免费看片亚洲 | 久久爱资源网 | 久久久性 | 国产久视频 | 久久精品免费 | 久久艹人人| 91视频麻豆 | 国产视频在线播放 | 国产三级视频在线 | 中文字幕免 | 91精品久久久久久综合乱菊 | 黄色av影视 | 国产精品视频免费 | 97视频在线免费 | 毛片3 | 中文字幕在线国产 | 91九色丨porny丨丰满6 | 97超碰伊人| 日韩在线视频播放 | 日韩国产欧美在线播放 | 免费看一级黄色 | 日韩精品一区二区在线 | 亚洲精品一区二区三区四区高清 | 国产精品色婷婷视频 | 欧美性色综合网站 | 成人免费观看a | 久久综合五月天婷婷伊人 | 免费高清在线视频一区· | 韩国一区二区三区在线观看 | 中文字幕在线网 | 日本中文字幕网站 | 成人毛片一区 | 国产精品乱看 | 亚洲 欧美 变态 国产 另类 | 婷婷资源站| 草久在线播放 | 欧美日韩国产综合网 | 久久午夜鲁丝片 | 91麻豆国产福利在线观看 | 视频二区在线 | 国产成人精品女人久久久 | 久久国产精品免费观看 | 波多野结衣在线视频免费观看 | 伊人婷婷在线 | 精品久久影院 | 天天透天天插 | 日韩av资源在线观看 | 99久久www| 免费亚洲成人 | 日日夜夜精品视频天天综合网 | 欧美91片| 久久美女视频 | 精品国产成人在线 | 久久五月天综合 | 激情在线网址 | 国产91精品一区二区绿帽 | 人人擦 | 天天干,狠狠干 | 97色资源| 激情av综合| 日韩精品免费在线观看 | 福利二区视频 | 黄网站色成年免费观看 | 伊人天堂网 | 久久私人影院 | 国产精品一区二区果冻传媒 | 成年美女黄网站色大片免费看 | 久久超碰网 | 精品在线免费视频 | 又黄又爽又刺激的视频 | 成人免费在线观看电影 | 黄色精品久久久 | 午夜精品久久久久久久99 | 久久久精品欧美一区二区免费 | 亚洲专区在线视频 | 狠狠色伊人亚洲综合网站色 | 精品久久久成人 | 午夜婷婷综合 | bbw av| 亚洲一区久久久 | 字幕网在线观看 | 激情黄色一级片 | 天天操天天操天天操天天操天天操 | 91天堂影院 | 探花视频免费观看高清视频 | 中文字幕字幕中文 | 免费精品在线视频 | 免费看av在线 | 亚洲成人蜜桃 | 亚洲精品网页 | 国产专区在线视频 | 久久久综合精品 | 亚洲日韩欧美一区二区在线 | 亚洲欧美国产精品18p | 国产黑丝一区二区三区 | 日韩理论电影在线 | 日韩精品在线免费观看 | 亚洲精品视频在线观看免费 | 久久成人国产精品入口 | 亚洲精品欧美精品 | 欧美精品一区二区在线播放 | 成年人天堂com | 日韩一区二区三区免费电影 | 国产一区二区播放 | 深爱激情开心 | 免费久久精品视频 | 久久视频精品在线观看 | 国产 视频 久久 | 婷婷六月天在线 | 九九久久久久久久久激情 | www日韩精品| 色婷婷激情四射 | 久久久人人人 | 日韩在线播放欧美字幕 | 少妇bbb搡bbbb搡bbbb | 日韩久久精品一区 | 黄色三几片 | 香蕉久草在线 | 免费在线观看日韩视频 | 欧美精品久久久 | 久久国产精品小视频 | 激情久久久久久久久久久久久久久久 | 久久久久| 日韩在线无 | 丁香六月久久综合狠狠色 | 狠狠色伊人亚洲综合网站野外 | 精品久久久久久电影 | 日本韩国欧美在线观看 | 国产成人精品一区二区三区网站观看 | 欧美日韩91 | 午夜精品久久久久久中宇69 | 久久精品中文视频 | 欧美日性视频 | 国产日韩中文字幕在线 | 国产一级电影免费观看 | 911av视频| 黄色一级动作片 | 天天透天天插 | 国产精品99久久久久人中文网介绍 | 日本中文字幕在线播放 | 免费成人在线网站 | 国产天天综合 | 日韩中文字幕国产精品 | 国产精品白浆视频 | 69中文字幕 | 国产成本人视频在线观看 | 国产精品久久电影观看 | 麻豆一区二区 | 国产老妇av | 91免费高清视频 | 91成人网在线 | 日韩免费小视频 | 欧美精品做受xxx性少妇 | 99久久精品免费看国产免费软件 | 黄色精品国产 | 制服丝袜欧美 | 欧美性粗大hdvideo | 亚洲日本va午夜在线影院 | 欧美精品天堂 | 青青五月天 | 久热免费| 国产精品美女久久久久久 | 国产精品99精品久久免费 | 波多野结衣在线观看一区二区三区 | 久99久在线视频 | 国产91丝袜在线播放动漫 | 国产精品1000| 三级黄色理论片 | 五月婷婷综合激情网 | 久久亚洲欧美 | 久久这里只有精品1 | 国产三级精品在线 | 99久热 | 91色在线观看视频 | 91久久久久久久 | 国产又黄又爽又猛视频日本 | 亚洲精品久久久蜜臀下载官网 | 中文在线字幕免费观 | 久草在线视频网 | 五月激情六月丁香 | 欧美日韩在线播放一区 | 国产99久久精品一区二区永久免费 | 亚洲成人资源在线观看 | 人人狠 | 91福利视频在线 | 成人久久免费视频 | 亚洲狠狠婷婷综合久久久 | 最近日本中文字幕a | 日韩欧美91 | 日本三级国产 | 国产成人久 | 国产精品入口麻豆 | 久久综合九色99 | 一区二区三区四区精品视频 | 99视频在线精品国自产拍免费观看 | 国产亚洲婷婷免费 | 免费观看一级特黄欧美大片 | www免费看片com| 四虎在线观看视频 | 久久久久久久久网站 | 欧美一级艳片视频免费观看 | 夜夜躁天天躁很躁波 | 久久99精品国产麻豆婷婷 | 久久在线免费观看视频 | 精品免费在线视频 | 中文字幕首页 | 欧美视频不卡 | 欧美成人69av | 欧美-第1页-屁屁影院 | 欧美综合久久久 | 成人av影视在线 | 在线免费黄色 | 欧洲一区精品 | 91在线看黄 | 国产女教师精品久久av | 国产美女精彩久久 | 精品亚洲va在线va天堂资源站 | 国产一区二三区好的 | 五月婷婷影院 | 久久免费av | 亚洲伊人av | 天天艹| 亚洲撸撸 | 51精品国自产在线 | 天天久久夜夜 |