日韩av黄I国产麻豆传媒I国产91av视频在线观看I日韩一区二区三区在线看I美女国产在线I麻豆视频国产在线观看I成人黄色短片

歡迎訪問 生活随笔!

生活随笔

當(dāng)前位置: 首頁 > 运维知识 > 数据库 >内容正文

数据库

Spark SQL 快速入门系列(五)SparkSQL 访问 Hive

發(fā)布時間:2023/12/8 数据库 47 豆豆
生活随笔 收集整理的這篇文章主要介紹了 Spark SQL 快速入门系列(五)SparkSQL 访问 Hive 小編覺得挺不錯的,現(xiàn)在分享給大家,幫大家做個參考.

文章目錄

  • 訪問 Hive
    • SparkSQL 整合 Hive
    • 訪問 Hive 表
    • idea實現(xiàn)SparkSQL連接hive

訪問 Hive

導(dǎo)讀

1,整合 SparkSQL 和 Hive, 使用 Hive 的 MetaStore 元信息庫
2,使用 SparkSQL 查詢 Hive 表
3,案例, 使用常見 HiveSQL
4,寫入內(nèi)容到 Hive 表

SparkSQL 整合 Hive

導(dǎo)讀

1,開啟 Hive 的 MetaStore 獨立進程
2,整合 SparkSQL 和 Hive 的 MetaStore

和一個文件格式不同, Hive 是一個外部的數(shù)據(jù)存儲和查詢引擎, 所以如果 Spark 要訪問 Hive 的話, 就需要先整合 Hive

整合什么 ?

如果要討論 SparkSQL 如何和 Hive 進行整合, 首要考慮的事應(yīng)該是 Hive 有什么, 有什么就整合什么就可以

  • MetaStore, 元數(shù)據(jù)存儲
    SparkSQL 內(nèi)置的有一個 MetaStore, 通過嵌入式數(shù)據(jù)庫 Derby 保存元信息, 但是對于生產(chǎn)環(huán)境來說, 還是應(yīng)該使用 Hive 的 MetaStore, 一是更成熟, 功能更強, 二是可以使用 Hive 的元信息
  • 查詢引擎
    SparkSQL 內(nèi)置了 HiveSQL 的支持, 所以無需整合

為什么要開啟 Hive 的 MetaStore

Hive 的 MetaStore 是一個 Hive 的組件, 一個 Hive 提供的程序, 用以保存和訪問表的元數(shù)據(jù), 整個 Hive 的結(jié)構(gòu)大致如下


由上圖可知道, 其實 Hive 中主要的組件就三個, HiveServer2 負責(zé)接受外部系統(tǒng)的查詢請求, 例如 JDBC, HiveServer2 接收到查詢請求后, 交給 Driver 處理, Driver 會首先去詢問 MetaStore 表在哪存, 后 Driver 程序通過 MR 程序來訪問 HDFS 從而獲取結(jié)果返回給查詢請求者

而 Hive 的 MetaStore 對 SparkSQL 的意義非常重大, 如果 SparkSQL 可以直接訪問 Hive 的 MetaStore, 則理論上可以做到和 Hive 一樣的事情, 例如通過 Hive 表查詢數(shù)據(jù)

而 Hive 的 MetaStore 的運行模式有三種

  • 內(nèi)嵌 Derby 數(shù)據(jù)庫模式

這種模式不必說了, 自然是在測試的時候使用, 生產(chǎn)環(huán)境不太可能使用嵌入式數(shù)據(jù)庫, 一是不穩(wěn)定, 二是這個 Derby 是單連接的, 不支持并發(fā)

  • Local 模式

Local 和 Remote 都是訪問 MySQL 數(shù)據(jù)庫作為存儲元數(shù)據(jù)的地方, 但是 Local 模式的 MetaStore 沒有獨立進程, 依附于 HiveServer2 的進程

  • Remote 模式

和 Loca 模式一樣, 訪問 MySQL 數(shù)據(jù)庫存放元數(shù)據(jù), 但是 Remote 的 MetaStore 運行在獨立的進程中

我們顯然要選擇 Remote 模式, 因為要讓其獨立運行, 這樣才能讓 SparkSQL 一直可以訪問

Hive 開啟 MetaStore

Step 1: 修改 hive-site.xml

<?xml version="1.0"?> <?xml-stylesheet type="text/xsl" href="configuration.xsl"?> <configuration><property><name>javax.jdo.option.ConnectionURL</name><value>jdbc:mysql://Bigdata01:3306/metastore?createDatabaseIfNotExist=true</value><description>JDBC connect string for a JDBC metastore</description></property><property><name>javax.jdo.option.ConnectionDriverName</name><value>com.mysql.jdbc.Driver</value><description>Driver class name for a JDBC metastore</description></property><property><name>javax.jdo.option.ConnectionUserName</name><value>root</value><description>username to use against metastore database</description></property><property><name>javax.jdo.option.ConnectionPassword</name><value>000000</value><description>password to use against metastore database</description></property><property><name>hive.cli.print.header</name><value>true</value></property><property><name>hive.cli.print.current.db</name><value>true</value></property><property><name>hive.metastore.warehouse.dir</name><value>/user/hive/warehouse</value></property><property><name>hive.metastore.local</name><value>false</value></property><property><name>hive.metastore.uris</name><value>thrift://Bigdata01:9083</value> </property></configuration>

Step 2: 啟動 Hive MetaStore

nohup /opt/module/hive/bin/hive --service metastore 2>&1 >> /opt/module/hive/logs/log.log &

SparkSQL 整合 Hive 的 MetaStore

即使不去整合 MetaStore, Spark 也有一個內(nèi)置的 MateStore, 使用 Derby 嵌入式數(shù)據(jù)庫保存數(shù)據(jù), 但是這種方式不適合生產(chǎn)環(huán)境, 因為這種模式同一時間只能有一個 SparkSession 使用, 所以生產(chǎn)環(huán)境更推薦使用 Hive 的 MetaStore

SparkSQL 整合 Hive 的 MetaStore 主要思路就是要通過配置能夠訪問它, 并且能夠使用 HDFS 保存 WareHouse, 這些配置信息一般存在于 Hadoop 和 HDFS 的配置文件中, 所以可以直接拷貝 Hadoop 和 Hive 的配置文件到 Spark 的配置目錄

cd /opt/module/hadoop/etc/hadoop cp hive-site.xml core-site.xml hdfs-site.xml /opt/module/spark/conf/ scp -r /opt/module/spark/conf Bigdata02:`pwd` scp -r /opt/module/spark/conf Bigdata03:`pwd`

Spark 需要 hive-site.xml 的原因是, 要讀取 Hive 的配置信息, 主要是元數(shù)據(jù)倉庫的位置等信息
Spark 需要 core-site.xml 的原因是, 要讀取安全有關(guān)的配置
Spark 需要 hdfs-site.xml 的原因是, 有可能需要在 HDFS 中放置表文件, 所以需要 HDFS 的配置

如果不希望通過拷貝文件的方式整合 Hive, 也可以在 SparkSession 啟動的時候, 通過指定 Hive 的 MetaStore 的位置來訪問, 但是更推薦整合的方式

訪問 Hive 表

導(dǎo)讀

1,在 Hive 中創(chuàng)建表
2,使用 SparkSQL 訪問 Hive 中已經(jīng)存在的表
3,使用 SparkSQL 創(chuàng)建 Hive 表
4,使用 SparkSQL 修改 Hive 表中的數(shù)據(jù)

創(chuàng)建文件名稱 :studenttabl10k
添加數(shù)據(jù)如下:(只添加150行)

ulysses thompson 64 1.90 katie carson 25 3.65 luke king 65 0.73 holly davidson 57 2.43 fred miller 55 3.77 holly white 43 0.24 luke steinbeck 51 1.14 nick underhill 31 2.46 holly davidson 59 1.26 calvin brown 56 0.72 rachel robinson 62 2.25 tom carson 35 0.56 tom johnson 72 0.99 irene garcia 54 1.06 oscar nixon 39 3.60 holly allen 32 2.58 oscar hernandez 19 0.05 alice ichabod 65 2.25 wendy thompson 30 2.39 priscilla hernandez 73 0.23 gabriella van buren 68 1.32 yuri thompson 42 3.65 yuri laertes 60 1.16 sarah young 23 2.76 zach white 32 0.20 nick van buren 68 1.75 xavier underhill 41 1.51 bob ichabod 56 2.81 zach steinbeck 61 2.22 alice garcia 42 2.03 jessica king 29 3.61 calvin nixon 37 0.30 fred polk 66 3.69 bob zipper 40 0.28 alice young 75 0.31 nick underhill 37 1.65 mike white 57 0.69 calvin ovid 41 3.02 fred steinbeck 47 3.57 sarah ovid 65 0.00 wendy nixon 63 0.62 gabriella zipper 77 1.51 david king 40 1.99 jessica white 30 3.82 alice robinson 37 3.69 zach nixon 74 2.75 irene davidson 27 1.22 priscilla xylophone 43 1.60 oscar zipper 25 2.43 fred falkner 38 2.23 ulysses polk 58 0.01 katie hernandez 47 3.80 zach steinbeck 55 0.68 fred laertes 69 3.62 quinn laertes 70 3.66 nick garcia 50 0.12 oscar young 55 2.22 bob underhill 47 0.24 calvin young 77 1.60 mike allen 65 2.95 david young 77 0.26 oscar garcia 69 1.59 ulysses ichabod 26 0.95 wendy laertes 76 1.13 sarah laertes 20 0.24 zach ichabod 60 1.60 tom robinson 62 0.78 zach steinbeck 69 1.01 quinn garcia 57 0.98 yuri van buren 32 1.97 luke carson 39 0.76 calvin ovid 73 0.82 luke ellison 27 0.56 oscar zipper 50 1.31 fred steinbeck 52 3.14 katie xylophone 76 1.38 luke king 54 2.30 ethan white 72 1.43 yuri ovid 37 3.64 jessica garcia 54 1.08 luke young 29 0.80 mike miller 39 3.35 fred hernandez 63 0.17 priscilla hernandez 52 0.35 ethan garcia 43 1.70 quinn hernandez 25 2.58 calvin nixon 33 1.01 yuri xylophone 47 1.36 ulysses steinbeck 63 1.05 jessica nixon 25 2.13 bob johnson 53 3.31 jessica ichabod 56 2.21 zach miller 63 3.87 priscilla white 66 2.82 ulysses allen 21 1.68 katie falkner 47 1.49 tom king 51 1.91 bob laertes 60 3.33 luke nixon 27 3.54 quinn johnson 42 2.24 wendy quirinius 71 0.10 victor polk 55 3.63 rachel robinson 32 1.11 sarah king 57 1.37 victor young 38 1.72 priscilla steinbeck 38 2.11 fred brown 19 2.72 xavier underhill 55 3.56 irene ovid 67 3.80 calvin brown 37 2.22 katie thompson 20 3.27 katie carson 66 3.55 tom miller 57 2.83 rachel brown 56 0.74 holly johnson 38 2.51 irene steinbeck 29 1.97 wendy falkner 37 0.14 ethan white 29 3.62 bob underhill 26 1.10 jessica king 64 0.69 luke steinbeck 19 1.16 luke laertes 70 3.58 rachel polk 74 0.92 calvin xylophone 52 0.58 luke white 57 3.86 calvin van buren 52 3.13 holly quirinius 59 1.70 mike brown 44 1.93 yuri ichabod 61 0.70 ulysses miller 56 3.53 victor hernandez 64 2.52 oscar young 34 0.34 luke ovid 36 3.17 quinn ellison 50 1.13 quinn xylophone 72 2.07 nick underhill 48 0.15 rachel miller 23 3.38 mike van buren 68 1.74 zach van buren 38 0.34 irene zipper 32 0.54 sarah garcia 31 3.87 rachel van buren 56 0.35 fred davidson 69 1.57 nick hernandez 19 2.11 irene polk 40 3.89 katie young 26 2.88 priscilla ovid 49 3.28 jessica hernandez 39 3.13 yuri allen 29 3.51 victor garcia 66 3.45

在 Hive 中創(chuàng)建表
第一步, 需要先將文件上傳到集群中, 使用如下命令上傳到 HDFS 中

hdfs dfs -mkdir -p /input hdfs dfs -put studenttabl10k /input/

第二步, 使用 Hive 或者 Beeline 執(zhí)行如下 SQL

CREATE DATABASE IF NOT EXISTS spark_integrition;USE spark_integrition;CREATE EXTERNAL TABLE student (name STRING,age INT,gpa string ) ROW FORMAT DELIMITEDFIELDS TERMINATED BY '\t'LINES TERMINATED BY '\n' STORED AS TEXTFILE LOCATION '/user/hive/warehouse';LOAD DATA INPATH '/input/studenttab10k' OVERWRITE INTO TABLE student;

通過 SparkSQL 查詢 Hive 的表

查詢 Hive 中的表可以直接通過 spark.sql(…?) 來進行, 可以直接在其中訪問 Hive 的 MetaStore, 前提是一定要將 Hive 的配置文件拷貝到 Spark 的 conf 目錄

[root@Bigdata01 bin]# ./spark-shell --master local[6] 20/09/03 20:55:20 WARN NativeCodeLoader: Unable to load native-hadoop library for your platform... using builtin-java classes where applicable Using Spark's default log4j profile: org/apache/spark/log4j-defaults.properties Setting default log level to "WARN". To adjust logging level use sc.setLogLevel(newLevel). For SparkR, use setLogLevel(newLevel). Spark context Web UI available at http://Bigdata01:4040 Spark context available as 'sc' (master = local[6], app id = local-1599137751998). Spark session available as 'spark'. Welcome to____ __/ __/__ ___ _____/ /___\ \/ _ \/ _ `/ __/ '_//___/ .__/\_,_/_/ /_/\_\ version 2.4.6/_/Using Scala version 2.11.12 (Java HotSpot(TM) 64-Bit Server VM, Java 1.8.0_144) Type in expressions to have them evaluated. Type :help for more information.scala> spark.sql("use spark_integrition") 20/09/03 20:56:45 WARN HiveConf: HiveConf of name hive.metastore.local does not exist res0: org.apache.spark.sql.DataFrame = []scala> spark.sql("select * from student limit 100") res1: org.apache.spark.sql.DataFrame = [name: string, age: int ... 1 more field]scala> res1.show() +-------------------+---+----+ | name|age| gpa| +-------------------+---+----+ | ulysses thompson| 64|1.90| | katie carson| 25|3.65| | luke king| 65|0.73| | holly davidson| 57|2.43| | fred miller| 55|3.77| | holly white| 43|0.24| | luke steinbeck| 51|1.14| | nick underhill| 31|2.46| | holly davidson| 59|1.26| | calvin brown| 56|0.72| | rachel robinson| 62|2.25| | tom carson| 35|0.56| | tom johnson| 72|0.99| | irene garcia| 54|1.06| | oscar nixon| 39|3.60| | holly allen| 32|2.58| | oscar hernandez| 19|0.05| | alice ichabod| 65|2.25| | wendy thompson| 30|2.39| |priscilla hernandez| 73|0.23| +-------------------+---+----+ only showing top 20 rows

通過 SparkSQL 創(chuàng)建 Hive 表

通過 SparkSQL 可以直接創(chuàng)建 Hive 表, 并且使用 LOAD DATA 加載數(shù)據(jù)

[root@Bigdata01 bin]# ./spark-shell --master local[6] 20/09/03 21:17:37 WARN NativeCodeLoader: Unable to load native-hadoop library for your platform... using builtin-java classes where applicable Using Spark's default log4j profile: org/apache/spark/log4j-defaults.properties Setting default log level to "WARN". To adjust logging level use sc.setLogLevel(newLevel). For SparkR, use setLogLevel(newLevel). Spark context Web UI available at http://Bigdata01:4040 Spark context available as 'sc' (master = local[6], app id = local-1599139087222). Spark session available as 'spark'. Welcome to____ __/ __/__ ___ _____/ /___\ \/ _ \/ _ `/ __/ '_//___/ .__/\_,_/_/ /_/\_\ version 2.4.6/_/Using Scala version 2.11.12 (Java HotSpot(TM) 64-Bit Server VM, Java 1.8.0_144) Type in expressions to have them evaluated. Type :help for more information.scala> :paste // Entering paste mode (ctrl-D to finish)val createTableStr ="""|create EXTERNAL TABLE student|(| name STRING,| age INT,| gpa string|)|ROW FORMAT DELIMITED| FIELDS TERMINATED BY '\t'| LINES TERMINATED BY '\n'|STORED AS TEXTFILE|LOCATION '/user/hive/warehouse'""".stripMarginspark.sql("CREATE DATABASE IF NOT EXISTS spark_integrition1") spark.sql("USE spark_integrition1") spark.sql(createTableStr) spark.sql("LOAD DATA INPATH '/input/studenttab10k' OVERWRITE INTO TABLE student")// Exiting paste mode, now interpreting.20/09/03 21:20:57 WARN HiveConf: HiveConf of name hive.metastore.local does not exist 20/09/03 21:21:01 ERROR KeyProviderCache: Could not find uri with key [dfs.encryption.key.provider.uri] to create a keyProvider !! createTableStr: String = " create EXTERNAL TABLE student (name STRING,age INT,gpa string ) ROW FORMAT DELIMITEDFIELDS TERMINATED BY '\t'LINES TERMINATED BY '\n' STORED AS TEXTFILE LOCATION '/user/hive/warehouse'" res0: org.apache.spark.sql.DataFrame = []scala> spark.sql("select * from student limit 100") res1: org.apache.spark.sql.DataFrame = [name: string, age: int ... 1 more field]scala> res1.where('age > 50).show() +-------------------+---+----+ | name|age| gpa| +-------------------+---+----+ | ulysses thompson| 64|1.90| | luke king| 65|0.73| | holly davidson| 57|2.43| | fred miller| 55|3.77| | luke steinbeck| 51|1.14| | holly davidson| 59|1.26| | calvin brown| 56|0.72| | rachel robinson| 62|2.25| | tom johnson| 72|0.99| | irene garcia| 54|1.06| | alice ichabod| 65|2.25| |priscilla hernandez| 73|0.23| |gabriella van buren| 68|1.32| | yuri laertes| 60|1.16| | nick van buren| 68|1.75| | bob ichabod| 56|2.81| | zach steinbeck| 61|2.22| | fred polk| 66|3.69| | alice young| 75|0.31| | mike white| 57|0.69| +-------------------+---+----+ only showing top 20 rows

目前 SparkSQL 支持的文件格式有 sequencefile, rcfile, orc, parquet, textfile, avro, 并且也可以指定 serde 的名稱

idea實現(xiàn)SparkSQL連接hive

使用 SparkSQL 處理數(shù)據(jù)并保存進 Hive 表

前面都在使用 SparkShell 的方式來訪問 Hive, 編寫 SQL, 通過 Spark 獨立應(yīng)用的形式也可以做到同樣的事, 但是需要一些前置的步驟, 如下

Step 1: 導(dǎo)入 Maven 依賴

<dependency><groupId>org.apache.spark</groupId><artifactId>spark-hive_2.11</artifactId><version>${spark.version}</version> </dependency>

Step 2: 配置 SparkSession

如果希望使用 SparkSQL 訪問 Hive 的話, 需要做兩件事

1,開啟 SparkSession 的 Hive 支持

經(jīng)過這一步配置, SparkSQL 才會把 SQL 語句當(dāng)作 HiveSQL 來進行解析

2,設(shè)置 WareHouse 的位置

雖然 hive-stie.xml 中已經(jīng)配置了 WareHouse 的位置, 但是在 Spark 2.0.0 后已經(jīng)廢棄了 hive-site.xml 中設(shè)置的 hive.metastore.warehouse.dir, 需要在 SparkSession 中設(shè)置 WareHouse 的位置

設(shè)置 MetaStore 的位置

val spark = SparkSession.builder().appName("hive example").config("spark.sql.warehouse.dir", "/user/hive/warehouse") //1.config("hive.metastore.uris", "thrift://Bigdata01:9083") //2.enableHiveSupport() //3 .getOrCreate()

1,設(shè)置 WareHouse 的位置
2,設(shè)置 MetaStore 的位置
3,開啟 Hive 支持

配置好了以后, 就可以通過 DataFrame 處理數(shù)據(jù), 后將數(shù)據(jù)結(jié)果推入 Hive 表中了, 在將結(jié)果保存到 Hive 表的時候, 可以指定保存模式

全套代碼如下:

package com.spark.hiveimport org.apache.spark.sql.{SaveMode, SparkSession} import org.apache.spark.sql.types.{FloatType, IntegerType, StringType, StructField, StructType}object HiveAccess {def main(args: Array[String]): Unit = {//1.創(chuàng)建SparkSession// 1.開啟hive支持// 2.指定Metastore 的位置// 3.指定Warehouse 的位置val spark = SparkSession.builder().appName(this.getClass.getSimpleName).enableHiveSupport()//開啟hive支持.config("hive.metatore.uris","thrift://Bigdata01:9083").config("spark.sql.warehouse.dir","/user/hive/warehouse").getOrCreate()//隱式轉(zhuǎn)換import spark.implicits._//2.讀取數(shù)據(jù)/*** 1.上傳HDFS, 因為要在集群中執(zhí)行,所以沒辦法保證程序在哪個機器上執(zhí)行* 所以,要把文件上傳到所有機器中,才能讀取本地文件,* 上傳到HDFS中就可以解決這個問題,所有的機器都可以讀取HDFS中的文件* 它是一個外部系統(tǒng)* 2.使用DF讀取文件*/val schema = StructType(List(StructField("name",StringType),StructField("age",IntegerType),StructField("gpa",FloatType)))val dataframe = spark.read//分隔符.option("delimiter","\t")//添加字段 (源碼).schema(schema).csv("hdfs:///input/studenttab10k")val resultDF = dataframe.where('age > 50)//3.寫入數(shù)據(jù)resultDF.write.mode(SaveMode.Overwrite).saveAsTable("spark_integrition1.student")} }

通過 mode 指定保存模式, 通過 saveAsTable 保存數(shù)據(jù)到 Hive

打包jar


放入spark 目錄下 將 jar 重命名為spark-sql.jar

[root@Bigdata01 spark]# mv original-spark-sql-1.0-SNAPSHOT.jar spark-sql.jar

提交集群運行 (出現(xiàn)如下結(jié)果,則運行成功)

[root@Bigdata01 spark]# bin/spark-submit --master spark://Bigdata01:7077 \ > --class com.spark.hive.HiveAccess \ > ./spark-sql.jar 20/09/03 22:28:52 WARN NativeCodeLoader: Unable to load native-hadoop library for your platform... using builtin-java classes where applicable Using Spark's default log4j profile: org/apache/spark/log4j-defaults.properties 20/09/03 22:28:55 INFO SparkContext: Running Spark version 2.4.6 20/09/03 22:28:55 INFO SparkContext: Submitted application: HiveAccess$ 20/09/03 22:28:55 INFO SecurityManager: Changing view acls to: root 20/09/03 22:28:55 INFO SecurityManager: Changing modify acls to: root 20/09/03 22:28:55 INFO SecurityManager: Changing view acls groups to: 20/09/03 22:28:55 INFO SecurityManager: Changing modify acls groups to: 20/09/03 22:28:55 INFO SecurityManager: SecurityManager: authentication disabled; ui acls disabled; users with view permissions: Set(root); groups with view permissions: Set(); users with modify permissions: Set(root); groups with modify permissions: Set() 20/09/03 22:28:57 INFO Utils: Successfully started service 'sparkDriver' on port 40023. 20/09/03 22:28:57 INFO SparkEnv: Registering MapOutputTracker 20/09/03 22:28:57 INFO SparkEnv: Registering BlockManagerMaster 20/09/03 22:28:57 INFO BlockManagerMasterEndpoint: Using org.apache.spark.storage.DefaultTopologyMapper for getting topology information 20/09/03 22:28:57 INFO BlockManagerMasterEndpoint: BlockManagerMasterEndpoint up 20/09/03 22:28:57 INFO DiskBlockManager: Created local directory at /tmp/blockmgr-02e6d729-f8d9-4a26-a95d-3a019331e164 20/09/03 22:28:57 INFO MemoryStore: MemoryStore started with capacity 366.3 MB 20/09/03 22:28:57 INFO SparkEnv: Registering OutputCommitCoordinator 20/09/03 22:28:58 WARN Utils: Service 'SparkUI' could not bind on port 4040. Attempting port 4041. 20/09/03 22:28:58 INFO Utils: Successfully started service 'SparkUI' on port 4041. 20/09/03 22:28:58 INFO SparkUI: Bound SparkUI to 0.0.0.0, and started at http://Bigdata01:4041 20/09/03 22:28:59 INFO SparkContext: Added JAR file:/opt/module/spark/./spark-sql.jar at spark://Bigdata01:40023/jars/spark-sql.jar with timestamp 1599143339071 20/09/03 22:28:59 INFO StandaloneAppClient$ClientEndpoint: Connecting to master spark://Bigdata01:7077... 20/09/03 22:29:00 INFO TransportClientFactory: Successfully created connection to Bigdata01/192.168.168.31:7077 after 331 ms (0 ms spent in bootstraps) 20/09/03 22:29:00 INFO StandaloneSchedulerBackend: Connected to Spark cluster with app ID app-20200903222900-0001 20/09/03 22:29:00 INFO StandaloneAppClient$ClientEndpoint: Executor added: app-20200903222900-0001/0 on worker-20200903203039-192.168.168.31-54515 (192.168.168.31:54515) with 8 core(s) 20/09/03 22:29:01 INFO StandaloneSchedulerBackend: Granted executor ID app-20200903222900-0001/0 on hostPort 192.168.168.31:54515 with 8 core(s), 1024.0 MB RAM 20/09/03 22:29:01 INFO StandaloneAppClient$ClientEndpoint: Executor added: app-20200903222900-0001/1 on worker-20200903203048-192.168.168.32-39304 (192.168.168.32:39304) with 6 core(s) 20/09/03 22:29:01 INFO StandaloneSchedulerBackend: Granted executor ID app-20200903222900-0001/1 on hostPort 192.168.168.32:39304 with 6 core(s), 1024.0 MB RAM 20/09/03 22:29:01 INFO StandaloneAppClient$ClientEndpoint: Executor added: app-20200903222900-0001/2 on worker-20200903203050-192.168.168.33-35682 (192.168.168.33:35682) with 6 core(s) 20/09/03 22:29:01 INFO StandaloneSchedulerBackend: Granted executor ID app-20200903222900-0001/2 on hostPort 192.168.168.33:35682 with 6 core(s), 1024.0 MB RAM 20/09/03 22:29:01 INFO Utils: Successfully started service 'org.apache.spark.network.netty.NettyBlockTransferService' on port 58667. 20/09/03 22:29:01 INFO NettyBlockTransferService: Server created on Bigdata01:58667 20/09/03 22:29:01 INFO BlockManager: Using org.apache.spark.storage.RandomBlockReplicationPolicy for block replication policy 20/09/03 22:29:01 INFO StandaloneAppClient$ClientEndpoint: Executor updated: app-20200903222900-0001/2 is now RUNNING 20/09/03 22:29:01 INFO StandaloneAppClient$ClientEndpoint: Executor updated: app-20200903222900-0001/0 is now RUNNING 20/09/03 22:29:01 INFO BlockManagerMaster: Registering BlockManager BlockManagerId(driver, Bigdata01, 58667, None) 20/09/03 22:29:01 INFO BlockManagerMasterEndpoint: Registering block manager Bigdata01:58667 with 366.3 MB RAM, BlockManagerId(driver, Bigdata01, 58667, None) 20/09/03 22:29:01 INFO BlockManagerMaster: Registered BlockManager BlockManagerId(driver, Bigdata01, 58667, None) 20/09/03 22:29:01 INFO BlockManager: Initialized BlockManager: BlockManagerId(driver, Bigdata01, 58667, None) 20/09/03 22:29:03 INFO StandaloneAppClient$ClientEndpoint: Executor updated: app-20200903222900-0001/1 is now RUNNING 20/09/03 22:29:12 INFO EventLoggingListener: Logging events to hdfs://Bigdata01:9000/spark_log/app-20200903222900-0001.lz4 20/09/03 22:29:13 INFO StandaloneSchedulerBackend: SchedulerBackend is ready for scheduling beginning after reached minRegisteredResourcesRatio: 0.0 20/09/03 22:29:14 INFO SharedState: loading hive config file: file:/opt/module/spark/conf/hive-site.xml 20/09/03 22:29:15 INFO SharedState: Setting hive.metastore.warehouse.dir ('/user/hive/warehouse') to the value of spark.sql.warehouse.dir ('/user/hive/warehouse'). 20/09/03 22:29:15 INFO SharedState: Warehouse path is '/user/hive/warehouse'. 20/09/03 22:29:19 INFO CoarseGrainedSchedulerBackend$DriverEndpoint: Registered executor NettyRpcEndpointRef(spark-client://Executor) (192.168.168.31:39316) with ID 0 20/09/03 22:29:19 INFO StateStoreCoordinatorRef: Registered StateStoreCoordinator endpoint 20/09/03 22:29:24 INFO BlockManagerMasterEndpoint: Registering block manager 192.168.168.31:44502 with 366.3 MB RAM, BlockManagerId(0, 192.168.168.31, 44502, None) 20/09/03 22:29:25 INFO CoarseGrainedSchedulerBackend$DriverEndpoint: Registered executor NettyRpcEndpointRef(spark-client://Executor) (192.168.168.33:60974) with ID 2 20/09/03 22:29:25 INFO InMemoryFileIndex: It took 857 ms to list leaf files for 1 paths. 20/09/03 22:29:26 INFO BlockManagerMasterEndpoint: Registering block manager 192.168.168.33:55821 with 366.3 MB RAM, BlockManagerId(2, 192.168.168.33, 55821, None) 20/09/03 22:29:32 INFO CoarseGrainedSchedulerBackend$DriverEndpoint: Registered executor NettyRpcEndpointRef(spark-client://Executor) (192.168.168.32:35910) with ID 1 20/09/03 22:29:36 INFO HiveUtils: Initializing HiveMetastoreConnection version 1.2.1 using Spark classes. 20/09/03 22:29:38 INFO BlockManagerMasterEndpoint: Registering block manager 192.168.168.32:50317 with 366.3 MB RAM, BlockManagerId(1, 192.168.168.32, 50317, None) 20/09/03 22:29:39 WARN HiveConf: HiveConf of name hive.metastore.local does not exist 20/09/03 22:29:40 INFO metastore: Trying to connect to metastore with URI thrift://Bigdata01:9083 20/09/03 22:29:40 INFO metastore: Connected to metastore. 20/09/03 22:29:43 INFO SessionState: Created local directory: /tmp/c21738d9-28fe-4780-a950-10d38e9e32ca_resources 20/09/03 22:29:43 INFO SessionState: Created HDFS directory: /tmp/hive/root/c21738d9-28fe-4780-a950-10d38e9e32ca 20/09/03 22:29:43 INFO SessionState: Created local directory: /tmp/root/c21738d9-28fe-4780-a950-10d38e9e32ca 20/09/03 22:29:43 INFO SessionState: Created HDFS directory: /tmp/hive/root/c21738d9-28fe-4780-a950-10d38e9e32ca/_tmp_space.db 20/09/03 22:29:43 INFO HiveClientImpl: Warehouse location for Hive client (version 1.2.2) is /user/hive/warehouse 20/09/03 22:29:47 INFO FileSourceStrategy: Pruning directories with: 20/09/03 22:29:47 INFO FileSourceStrategy: Post-Scan Filters: isnotnull(age#1),(age#1 > 50) 20/09/03 22:29:47 INFO FileSourceStrategy: Output Data Schema: struct<name: string, age: int, gpa: float ... 1 more fields> 20/09/03 22:29:47 INFO FileSourceScanExec: Pushed Filters: IsNotNull(age),GreaterThan(age,50) 20/09/03 22:29:48 INFO ParquetFileFormat: Using default output committer for Parquet: org.apache.parquet.hadoop.ParquetOutputCommitter 20/09/03 22:29:48 INFO FileOutputCommitter: File Output Committer Algorithm version is 1 20/09/03 22:29:48 INFO SQLHadoopMapReduceCommitProtocol: Using user defined output committer class org.apache.parquet.hadoop.ParquetOutputCommitter 20/09/03 22:29:48 INFO FileOutputCommitter: File Output Committer Algorithm version is 1 20/09/03 22:29:48 INFO SQLHadoopMapReduceCommitProtocol: Using output committer class org.apache.parquet.hadoop.ParquetOutputCommitter 20/09/03 22:29:50 INFO CodeGenerator: Code generated in 1046.0442 ms 20/09/03 22:29:50 INFO MemoryStore: Block broadcast_0 stored as values in memory (estimated size 281.9 KB, free 366.0 MB) 20/09/03 22:29:51 INFO MemoryStore: Block broadcast_0_piece0 stored as bytes in memory (estimated size 24.2 KB, free 366.0 MB) 20/09/03 22:29:51 INFO BlockManagerInfo: Added broadcast_0_piece0 in memory on Bigdata01:58667 (size: 24.2 KB, free: 366.3 MB) 20/09/03 22:29:51 INFO SparkContext: Created broadcast 0 from saveAsTable at HiveAccess.scala:54 20/09/03 22:29:53 INFO FileSourceScanExec: Planning scan with bin packing, max size: 4194304 bytes, open cost is considered as scanning 4194304 bytes. 20/09/03 22:29:54 INFO SparkContext: Starting job: saveAsTable at HiveAccess.scala:54 20/09/03 22:29:54 INFO DAGScheduler: Got job 0 (saveAsTable at HiveAccess.scala:54) with 1 output partitions 20/09/03 22:29:54 INFO DAGScheduler: Final stage: ResultStage 0 (saveAsTable at HiveAccess.scala:54) 20/09/03 22:29:54 INFO DAGScheduler: Parents of final stage: List() 20/09/03 22:29:54 INFO DAGScheduler: Missing parents: List() 20/09/03 22:29:54 INFO DAGScheduler: Submitting ResultStage 0 (MapPartitionsRDD[1] at saveAsTable at HiveAccess.scala:54), which has no missing parents 20/09/03 22:29:55 INFO MemoryStore: Block broadcast_1 stored as values in memory (estimated size 153.1 KB, free 365.9 MB) 20/09/03 22:29:55 INFO MemoryStore: Block broadcast_1_piece0 stored as bytes in memory (estimated size 55.6 KB, free 365.8 MB) 20/09/03 22:29:55 INFO BlockManagerInfo: Added broadcast_1_piece0 in memory on Bigdata01:58667 (size: 55.6 KB, free: 366.2 MB) 20/09/03 22:29:55 INFO SparkContext: Created broadcast 1 from broadcast at DAGScheduler.scala:1163 20/09/03 22:29:55 INFO DAGScheduler: Submitting 1 missing tasks from ResultStage 0 (MapPartitionsRDD[1] at saveAsTable at HiveAccess.scala:54) (first 15 tasks are for partitions Vector(0)) 20/09/03 22:29:55 INFO TaskSchedulerImpl: Adding task set 0.0 with 1 tasks 20/09/03 22:29:55 INFO TaskSetManager: Starting task 0.0 in stage 0.0 (TID 0, 192.168.168.33, executor 2, partition 0, ANY, 8261 bytes) 20/09/03 22:29:57 INFO BlockManagerInfo: Added broadcast_1_piece0 in memory on 192.168.168.33:55821 (size: 55.6 KB, free: 366.2 MB) 20/09/03 22:30:24 INFO BlockManagerInfo: Added broadcast_0_piece0 in memory on 192.168.168.33:55821 (size: 24.2 KB, free: 366.2 MB) 20/09/03 22:30:28 INFO TaskSetManager: Finished task 0.0 in stage 0.0 (TID 0) in 32924 ms on 192.168.168.33 (executor 2) (1/1) 20/09/03 22:30:28 INFO TaskSchedulerImpl: Removed TaskSet 0.0, whose tasks have all completed, from pool 20/09/03 22:30:28 INFO DAGScheduler: ResultStage 0 (saveAsTable at HiveAccess.scala:54) finished in 34.088 s 20/09/03 22:30:28 INFO DAGScheduler: Job 0 finished: saveAsTable at HiveAccess.scala:54, took 34.592171 s 20/09/03 22:30:29 INFO FileFormatWriter: Write Job 3b048e0c-6b5e-43ea-aad2-b1e64f4d9657 committed. 20/09/03 22:30:29 INFO FileFormatWriter: Finished processing stats for write job 3b048e0c-6b5e-43ea-aad2-b1e64f4d9657. 20/09/03 22:30:30 INFO InMemoryFileIndex: It took 26 ms to list leaf files for 1 paths. 20/09/03 22:30:30 INFO HiveExternalCatalog: Persisting file based data source table `spark_integrition1`.`student` into Hive metastore in Hive compatible format. 20/09/03 22:30:32 INFO SparkContext: Invoking stop() from shutdown hook 20/09/03 22:30:32 INFO SparkUI: Stopped Spark web UI at http://Bigdata01:4041 20/09/03 22:30:32 INFO StandaloneSchedulerBackend: Shutting down all executors 20/09/03 22:30:32 INFO CoarseGrainedSchedulerBackend$DriverEndpoint: Asking each executor to shut down 20/09/03 22:30:32 INFO MapOutputTrackerMasterEndpoint: MapOutputTrackerMasterEndpoint stopped! 20/09/03 22:30:32 INFO MemoryStore: MemoryStore cleared 20/09/03 22:30:32 INFO BlockManager: BlockManager stopped 20/09/03 22:30:32 INFO BlockManagerMaster: BlockManagerMaster stopped 20/09/03 22:30:32 INFO OutputCommitCoordinator$OutputCommitCoordinatorEndpoint: OutputCommitCoordinator stopped! 20/09/03 22:30:32 INFO SparkContext: Successfully stopped SparkContext 20/09/03 22:30:32 INFO ShutdownHookManager: Shutdown hook called 20/09/03 22:30:32 INFO ShutdownHookManager: Deleting directory /tmp/spark-5d113d24-2e67-4d1c-a6aa-e75de128da16 20/09/03 22:30:32 INFO ShutdownHookManager: Deleting directory /tmp/spark-f4a4aed1-1746-4e87-9f62-bdaaf6eff438

進入hive 目錄查詢

hive (spark_integrition1)> select * from student limit 10; OK student.name student.age student.gpa ulysses thompson 64 1.9 luke king 65 0.73 holly davidson 57 2.43 fred miller 55 3.77 luke steinbeck 51 1.14 holly davidson 59 1.26 calvin brown 56 0.72 rachel robinson 62 2.25 tom johnson 72 0.99 irene garcia 54 1.06 Time taken: 0.245 seconds, Fetched: 10 row(s)

end

本次分享就到這里了

總結(jié)

以上是生活随笔為你收集整理的Spark SQL 快速入门系列(五)SparkSQL 访问 Hive的全部內(nèi)容,希望文章能夠幫你解決所遇到的問題。

如果覺得生活随笔網(wǎng)站內(nèi)容還不錯,歡迎將生活随笔推薦給好友。

亚洲精品国产精品国自产观看 | 96精品视频| 亚洲另类在线视频 | 91精品人成在线观看 | 日本精品久久久久影院 | 精品国内自产拍在线观看视频 | 久久伊人八月婷婷综合激情 | 97精品国产 | 色天天中文 | 国产精品久久网 | av免费网站在线观看 | 911av视频| 韩日精品视频 | bayu135国产精品视频 | 国产在线国偷精品产拍免费yy | 在线观看视频你懂的 | 午夜视频黄 | 国产精品一区二区在线播放 | 日韩免费在线观看视频 | 日韩网页 | 88av网站| 亚洲少妇自拍 | 超碰激情在线 | 一区二区影院 | 日韩v在线| 亚洲综合激情小说 | 亚洲一区二区三区在线看 | 中文字幕乱码日本亚洲一区二区 | 色综合激情久久 | 视频一区视频二区在线观看 | 国产99久久久国产精品免费二区 | 日韩视频免费 | 欧美aaa大片 | 中文区中文字幕免费看 | 亚洲综合成人在线 | 日韩素人在线观看 | 色综合久久88色综合天天人守婷 | 99中文字幕在线观看 | 国产中文字幕视频在线观看 | 精品国产免费av | 久久精品之 | 一区二区三区视频 | 中文字幕在线观看完整版电影 | 99久久综合狠狠综合久久 | 欧美日韩国产在线一区 | 精品国精品自拍自在线 | 久久电影中文字幕视频 | a在线视频v视频 | 国产在线久久久 | 国产成人亚洲精品自产在线 | 国产天天综合 | 在线视频一二区 | 久久久久久国产精品免费 | 国产精品午夜8888 | 国产伦理久久精品久久久久_ | 欧美性色网站 | 日韩欧美精品在线视频 | 国产高清av免费在线观看 | 天天操天天舔天天干 | 亚洲另类视频在线 | 精品国产亚洲在线 | av三级av| 天天操福利视频 | 在线观看的av | av天天澡天天爽天天av | 亚洲黄色小说网址 | 在线免费视频a | 国产a国产 | 亚洲精品乱码白浆高清久久久久久 | 99久热在线精品 | 麻豆视频在线观看 | 久日视频| 狠狠色噜噜狠狠狠狠 | 999久久久国产精品 高清av免费观看 | www.久久成人 | 五月天综合激情 | 永久免费精品视频网站 | 亚洲精选视频免费看 | 国内成人综合 | 在线影视 一区 二区 三区 | 黄色大片入口 | 日韩国产欧美在线播放 | 黄色三级网站 | 国产成人一区二区三区在线观看 | 蜜臀av夜夜澡人人爽人人桃色 | 亚洲视频在线观看免费 | www日韩欧美 | 蜜臀久久99静品久久久久久 | 国产精品麻豆免费版 | 国产黄色片免费 | 91视频亚洲 | 亚洲第一av在线 | 日日骑 | 欧美视频日韩 | 99久久er热在这里只有精品15 | 国产精品国产三级国产不产一地 | 久久99热这里只有精品 | 91九色成人蝌蚪首页 | 在线免费观看黄色av | 色姑娘综合网 | 香蕉视频久久 | 91亚洲狠狠婷婷综合久久久 | 色成人亚洲网 | 精品视频久久 | 中文字幕日本特黄aa毛片 | 国产一区二区午夜 | 国产特级毛片 | www.99热精品| 中文字幕乱码亚洲精品一区 | 国产高清视频免费观看 | 综合久久2023| 国产裸体bbb视频 | 丁香九月婷婷综合 | 欧美日一级片 | 永久免费观看视频 | 久久久男人的天堂 | 色综合天天综合 | 亚洲视频综合 | 在线观看视频h | 久久综合狠狠综合 | 中文字幕国产视频 | 国产一区免费在线 | 麻豆视传媒官网免费观看 | 色噜噜日韩精品欧美一区二区 | 精品久久久一区二区 | 色综合久久久久久久久五月 | 亚洲精品乱码久久久久久按摩 | 最新不卡av | 国产字幕av | 粉嫩高清一区二区三区 | 久久久影院一区二区三区 | 日韩精品一区二区三区免费视频观看 | 亚洲一区二区麻豆 | 综合天天色 | www.操.com| 久久激情视频 久久 | 久草精品网 | 免费观看视频的网站 | 91精品国产一区二区三区 | av资源中文字幕 | 国产精品短视频 | 日本黄色免费在线 | 成人网在线免费视频 | 久久免费视频在线观看6 | 91精彩视频在线观看 | 欧美一二区视频 | 国产精久久久久久久 | 日韩精品中文字幕在线观看 | 五月婷婷另类国产 | 久久久精品网 | 欧美另类高潮 | 高清日韩一区二区 | 欧美日韩久久不卡 | 国产 在线 高清 精品 | 中文国产字幕在线观看 | 天天干天天拍天天操天天拍 | 黄色91免费观看 | 在线观看av中文字幕 | 五月综合久久 | 国产精品久久嫩一区二区免费 | 中文字幕免费成人 | av.com在线 | 国产123av| 91九色自拍| 99久久精品久久久久久清纯 | 亚洲伦理中文字幕 | 欧美欧美 | 日韩激情片在线观看 | 在线有码中文 | 欧美老女人xx | 超碰97在线资源站 | 狠狠干夜夜操天天爽 | 国产高清视频免费 | 久草视频99 | 超碰在线人人 | 久久亚洲专区 | 日韩av成人免费看 | 久草在线 | 亚洲激情在线播放 | 91视频黄色| 91日韩精品 | 国产一级黄 | 久久精品99久久 | 日韩毛片在线免费观看 | 色婷婷精品大在线视频 | 日韩av影视 | 激情丁香在线 | 国产精品久久久久久久av电影 | 亚洲成熟女人毛片在线 | 免费福利在线播放 | 不卡国产在线 | 国产精品不卡在线观看 | 国产日产欧美在线观看 | 91九色精品 | 色婷婷成人网 | 麻豆国产网站入口 | 午夜色婷婷| 亚洲精品高清在线观看 | 国内精品久久久久影院优 | 国产精品18久久久久久久久久久久 | 亚洲少妇自拍 | 美女很黄免费网站 | www毛片com| 伊人网综合在线观看 | 国产成人专区 | 亚洲精品视频在线播放 | av免费黄色 | 天干啦夜天干天干在线线 | 亚洲一区二区三区毛片 | 亚洲视频免费 | 正在播放国产精品 | 国产一区二区不卡视频 | 97精品伊人 | 国产精品原创 | 精品国自产在线观看 | 国产精品久久久久婷婷 | 久久dvd| 国产一区二区三区高清播放 | 免费人做人爱www的视 | 久久av中文字幕片 | 玖玖玖在线 | 国产精品系列在线 | 免费在线成人av | 欧美日韩国产色综合一二三四 | 热久在线| 99久久er热在这里只有精品66 | av中文字幕在线免费观看 | 免费三级黄色 | 91亚洲精品国产 | 成人免费网站视频 | 精品色综合| 国内精品久久久久 | 日韩精品偷拍 | a天堂中文在线 | 日韩精品一区二区三区在线播放 | 在线视频日韩一区 | 一区久久久 | 91精彩视频| 91av欧美 | 久久在现 | 久久 精品一区 | 一级黄色在线免费观看 | 国产美女精品人人做人人爽 | 久久99久久精品国产 | 欧美性极品xxxx做受 | 黄网站色成年免费观看 | 丁香婷婷电影 | 亚洲精品久久久久久中文传媒 | 欧美另类69 | 亚洲精品久久久久久中文传媒 | 成人黄色短片 | 国产精品永久免费观看 | 亚洲资源 | 免费网站污| 九九99视频| 一区二区电影在线观看 | 狠狠色丁香婷婷综合最新地址 | 亚洲一区 影院 | 91精品一 | 久久国产区 | www.com黄色 | 91色偷偷 | 日韩欧美一区二区三区视频 | 久久久www成人免费毛片麻豆 | 五月激情在线 | 在线观看麻豆av | 四虎永久国产精品 | 日本动漫做毛片一区二区 | 国产伦精品一区二区三区高清 | 亚洲综合在线观看视频 | 日日夜夜操av | 久草视频播放 | 97人人澡人人添人人爽超碰 | 在线免费观看黄色大片 | 亚洲三级在线免费观看 | 中文字幕一区二区三区四区久久 | 93久久精品日日躁夜夜躁欧美 | 日韩中文在线字幕 | 色婷婷天天干 | 美女网站黄在线观看 | 国产一区二区在线免费播放 | 国产小视频在线观看免费 | 去看片| 国产看片 色 | 日韩视频免费 | 久久99热国产 | 色a网 | 五月亚洲婷婷 | 亚洲人成综合 | 亚洲五月| 中文字幕在线观看网址 | 久草视频免费 | www.日日日.com | 婷婷综合伊人 | 99精品电影 | 国产成人黄色片 | 精品一区二区在线看 | 色999在线 | 九九九视频精品 | 中文字幕在线视频网站 | 麻豆视频免费在线播放 | 欧美精品一区二区在线播放 | 97热视频 | 丁香视频全集免费观看 | 九草视频在线 | 色欧美成人精品a∨在线观看 | 蜜臀av性久久久久蜜臀aⅴ涩爱 | 日韩欧美视频一区二区 | 亚洲经典视频 | 天天天操天天天干 | 成人在线免费观看网站 | 一区二区激情视频 | 中文字幕一区二区三 | 黄色小说网站在线 | 国产精品毛片一区二区 | 精品美女久久久久 | 久久视频免费 | www色| 国产精品久久久久久五月尺 | av一级片网站 | 黄色a大片| 蜜臀av性久久久久蜜臀aⅴ四虎 | 日韩在线高清免费视频 | 日韩免费看片 | 国产中出在线观看 | 天天人人综合 | 九九热精品在线 | 欧美va在线观看 | 狂野欧美激情性xxxx | 97视频免费观看2区 亚洲视屏 | 久久国色夜色精品国产 | 国产一区二区在线免费视频 | 成年美女黄网站色大片免费看 | 激情图片qvod | 亚洲高清精品在线 | 久久亚洲美女 | 999久久久久久久久6666 | 国产精品毛片久久久久久久久久99999999 | 六月婷操| 中文字幕 欧美性 | 正在播放久久 | 天天激情 | 九草视频在线 | 免费三级黄 | 黄色免费电影网站 | 亚洲精品乱码久久久久久蜜桃欧美 | 香蕉视频网址 | .国产精品成人自产拍在线观看6 | 国产最新在线 | 欧美午夜理伦三级在线观看 | 国产成人一区二区在线观看 | 久久天天躁狠狠躁亚洲综合公司 | 亚洲视频在线观看网站 | 91麻豆免费版 | av中文天堂 | 日韩视频1区 | 精品欧美乱码久久久久久 | 国产精品毛片久久久久久久久久99999999 | 黄色网在线播放 | 五月天婷婷在线观看视频 | a在线观看国产 | 91天天操 | 日韩精品久久久久久 | 狠狠色狠狠色终合网 | 在线看片一区 | 日韩系列 | 国产精品99久久久久久武松影视 | 天天爽天天碰狠狠添 | 久久精品国产一区二区三区 | 久久综合网色—综合色88 | 激情丁香综合五月 | 国内精品视频在线 | 免费看一级特黄a大片 | 超碰在线人人草 | 精品久久久久久一区二区里番 | 久久久久久久国产精品 | 日本丰满少妇免费一区 | 黄色资源网站 | 精品久久久久久久久亚洲 | 日韩女同一区二区三区在线观看 | 91视频成人免费 | 91大神免费视频 | 国产精品久久久久久久久久新婚 | 亚洲一区二区视频在线播放 | 婷婷九九 | 成人免费观看大片 | 日本论理电影 | 天天做天天爱天天综合网 | 2019av在线视频 | 最近更新的中文字幕 | 中文字幕在线观看第一页 | 欧美日韩国产色综合一二三四 | 亚洲综合激情网 | 成年人免费看 | 奇米影视8888 | av中文字幕第一页 | www黄在线| 伊人热 | 免费观看久久 | 91高清免费观看 | 91视频传媒 | 久久国产一区二区三区 | 黄网站app在线观看免费视频 | 精品久久久影院 | 国产视频欧美视频 | www.色五月 | 亚洲一级二级三级 | 国产高清绿奴videos | 99精品久久精品一区二区 | 亚洲另类人人澡 | 激情电影影院 | 亚洲精品 在线视频 | 蜜臀久久99精品久久久无需会员 | 18性欧美xxxⅹ性满足 | 国产精品久久久久久久久搜平片 | 色婷五月 | 毛片美女网站 | 久久免费视频在线观看30 | 亚洲国产精品一区二区久久hs | 在线观看视频日韩 | 亚洲日日射 | 久草国产视频 | 亚洲国产欧美在线人成大黄瓜 | 亚洲不卡123| 久久中文网 | 久久伦理电影网 | 玖玖视频国产 | 久草视频视频在线播放 | 天天摸天天操天天爽 | 日韩视频免费观看高清完整版在线 | 国产精品成人一区二区三区吃奶 | 亚洲电影黄色 | 亚洲涩涩网 | 国产精品视频你懂的 | 干天天 | 久久精品国产一区 | 亚洲男模gay裸体gay | 国际精品久久久久 | 国产亚洲91 | 天天综合网 天天综合色 | 国产精品av电影 | 久草在线资源免费 | 五月激情视频 | 黄色免费在线看 | 久久免费黄色大片 | 三级免费黄色 | 国产精品一区二区久久 | 日韩一区二区三区免费视频 | 成人91在线 | 免费精品视频 | 日韩a欧美 | 麻豆精品在线视频 | 色永久免费视频 | 98精品国产自产在线观看 | 久久黄视频 | 国产精品99蜜臀久久不卡二区 | 国产精品大全 | 午夜精品福利一区二区 | 国产精品中文在线 | 日韩一区视频在线 | 久青草影院 | 亚洲欧美偷拍另类 | 99精品热| 亚洲欧美成aⅴ人在线观看 四虎在线观看 | 99精品国产兔费观看久久99 | 亚洲四虎影院 | 欧美一区中文字幕 | 97视频总站 | av电影免费观看 | 91九色蝌蚪视频在线 | 狠狠色丁香婷婷综合欧美 | 亚洲视频电影在线 | 91亚洲视频在线观看 | 国产美女视频 | 国产日本高清 | 欧美日韩不卡在线视频 | 久久久夜色 | 国产一区二区三区网站 | 亚洲伊人天堂 | 9999精品| 国产高清专区 | www日韩在线观看 | 久久免费精品国产 | 91精品国产九九九久久久亚洲 | 亚洲一级片在线看 | 国产在线不卡精品 | 国产婷婷精品 | 日韩高清在线一区二区三区 | 中文在线天堂资源 | 96久久精品 | 在线观看视频在线 | 日韩在线一区二区免费 | 日韩美一区二区三区 | 欧美人操人 | 国产中文字幕一区二区 | 久草在线免费资源站 | 国产成人久久av | 成人av一区二区三区 | 国产一区二区在线免费播放 | 探花视频在线版播放免费观看 | 成年人黄色在线观看 | 国产视频午夜 | 久久久久久久影视 | 久久久www成人免费精品 | 69久久久 | 久草色在线观看 | 久久久久草 | 国产精品9999久久久久仙踪林 | 欧美日韩亚洲在线观看 | 1024手机在线看 | 狠狠色丁香久久婷婷综合丁香 | 粉嫩av一区二区三区四区 | 一本一本久久a久久精品综合小说 | av大片网站| 久热久草 | 国产精品国内免费一区二区三区 | 午夜精品在线看 | 中文字幕在线成人 | 色狠狠一区二区 | 黄色99视频 | 欧美日韩中文国产一区发布 | 激情五月婷婷综合网 | 欧美成年网站 | 97色在线观看免费视频 | 久操视频在线播放 | 久久久久久高清 | 亚洲成年人av | 久久超碰在线 | 国产精品地址 | 亚洲好视频 | 国产精品刺激对白麻豆99 | 欧美日韩国产欧美 | 91麻豆精品国产自产在线 | 久久久久久免费毛片精品 | 国产免费人人看 | 最近免费在线观看 | 久久激情视频免费观看 | 欧美在线你懂的 | 91看片黄色 | 在线电影 一区 | 国产专区一 | 国产黄色看片 | 成人h动漫在线看 | 天天躁日日躁狠狠躁av中文 | 日韩欧美高清视频在线观看 | 免费看成人片 | 在线观看黄av | 日韩视频精品在线 | 国产黄色片在线 | av成人免费 | 欧美日韩亚洲第一 | 国产香蕉视频 | 色综合久久久久久久 | 免费三及片 | 亚洲精品黄色在线观看 | 国产黄视频在线观看 | 亚洲国产视频在线 | 精品国产乱码久久久久久久 | 国模一区二区三区四区 | 成人av av在线 | 中文字幕色网站 | 亚洲精品国产日韩 | 国产精品久久久久久久婷婷 | 国产高清在线精品 | 亚洲精品视频网 | 在线观看一区二区精品 | 精品亚洲免a | 毛片一二区 | 狠狠狠狠狠色综合 | 久久久久久久久久伊人 | 婷婷色站 | 久久免费视频在线 | 二区三区av | 国产精品12| 亚洲欧美国内爽妇网 | 99精品黄色片免费大全 | 久久久久网站 | 福利久久| 一本一道波多野毛片中文在线 | 97超碰色偷偷 | 亚色视频在线观看 | 国产视频一区在线播放 | 91桃花视频 | 久久国产精品视频免费看 | 这里有精品在线视频 | 麻豆传媒一区二区 | 五月婷婷狠狠 | 欧美日韩视频一区二区三区 | 久久大片网站 | 久热久草在线 | 久久少妇av| 亚洲精品视频免费在线观看 | 国产精品久久久久久久7电影 | 亚洲视频在线观看 | 麻豆久久久久久久 | 免费国产黄线在线观看视频 | 嫩嫩影院理论片 | 天天综合网久久综合网 | 国产精品一区二区久久精品爱涩 | 国产精品久久久免费 | 四虎成人精品在永久免费 | 三级视频国产 | 国产精品久久久精品 | 最新不卡av| 91女人18片女毛片60分钟 | 久久精品看片 | 国产 一区二区三区 在线 | 日韩美女久久 | 黄色大全在线观看 | 久久精品综合 | 亚洲国产中文字幕在线观看 | 一区二区三区在线免费观看视频 | 国产精品婷婷午夜在线观看 | 婷婷激情在线观看 | 四虎国产精品免费观看视频优播 | 国产精品视频地址 | 一区二区视频免费在线观看 | 久久久.com | 国产成人精品一区二区在线 | 国产福利资源 | 又粗又长又大又爽又黄少妇毛片 | 蜜臀av性久久久久蜜臀aⅴ四虎 | 色91在线视频 | 精品在线播放 | 97视频免费在线观看 | 97在线观看视频 | 欧美日韩视频在线观看免费 | 国产高清视频在线 | av无限看 | 98久9在线 | 免费 | 成人免费在线观看电影 | 久久精品成人热国产成 | 国产精品原创在线 | 久久综合偷偷噜噜噜色 | 热久久影视| 日韩中文字幕免费在线观看 | 天天射天天艹 | 一区二区三区四区精品视频 | 日本激情动作片免费看 | 国产精品入口66mio女同 | 国产精品99久久99久久久二8 | 人人爽久久涩噜噜噜网站 | av中文字幕网站 | 久久高清国产 | 91传媒免费观看 | 国产专区欧美专区 | 国产+日韩欧美 | 久久99热这里只有精品国产 | 欧美精品久 | 黄av在线 | 国产精品成人品 | 久久草 | 国产色视频一区二区三区qq号 | 色夜视频 | 中文字幕高清免费日韩视频在线 | 日本在线中文 | 最新91在线视频 | 五月婷婷激情综合 | 色综合久久66| 久久精品免费电影 | 天天操天天射天天操 | 三级av免费观看 | 亚洲精品动漫成人3d无尽在线 | 一二区电影 | 国产91勾搭技师精品 | 精品国产综合区久久久久久 | 免费精品在线 | 在线欧美最极品的av | 亚洲国产中文在线观看 | 亚洲永久精品在线 | 天天干天天干天天射 | 成人app在线免费观看 | 中文字幕精品一区二区精品 | av激情五月 | 激情五月开心 | 久久久久激情电影 | 欧美专区日韩专区 | 九色免费视频 | 久久久久网址 | 国产精品美女在线观看 | 婷婷精品 | 国产成人免费在线观看 | 精品国产aⅴ一区二区三区 在线直播av | 欧美激情精品久久久久 | 超碰电影在线观看 | 97视频在线看 | 欧美日韩一级久久久久久免费看 | 成人网看片 | 深爱激情五月网 | 黄色免费国产 | www.狠狠操| 插久久 | 国产香蕉97碰碰久久人人 | 国产一区在线免费 | 日韩视频一区二区在线观看 | 五月天色站| 国产黄免费在线观看 | 91av看片 | 丁香六月国产 | 人人爽人人澡人人添人人人人 | 成人a大片 | 亚洲区二区 | 国产日韩欧美精品在线观看 | 丁香婷婷综合五月 | 99热手机在线观看 | 香蕉色综合 | 久久人人爽人人人人片 | 久久99久久99精品免观看粉嫩 | 一本一道久久a久久精品 | 99久久99久久精品国产片果冰 | 免费a视频在线 | 久久久久欠精品国产毛片国产毛生 | 一区二区三区在线观看免费视频 | 精品久久一区二区三区 | 99久久久国产精品 | 亚洲精品在线二区 | 探花视频在线观看+在线播放 | 亚洲视频高清 | 女人久久久久 | 97在线视频免费播放 | 97成人免费 | 亚洲永久av| 中文字幕在线观看第一页 | 五月天激情婷婷 | 在线免费观看麻豆视频 | 国产又黄又爽无遮挡 | 丝袜美腿一区 | 欧美国产精品久久久久久免费 | 国产精品一区二区av影院萌芽 | 久久婷婷色综合 | 日本三级吹潮在线 | 色夜影院 | japanesexxx乱女另类 | 在线中文字母电影观看 | 人人干人人做 | 久久草视频 | 青草视频在线免费 | 久久精品小视频 | 中文字幕乱码亚洲精品一区 | 日韩av看片 | 日韩在线视频一区 | 久久九九免费视频 | 天天色视频 | 精品在线一区二区三区 | 久久国产色 | 91传媒免费在线观看 | 欧美日韩xxxxx | 亚洲综合涩 | 亚洲欧美日韩精品久久奇米一区 | 精品1区二区 | 国产精品久久久久久久久久久免费 | 在线看日韩 | 五月天国产精品 | 亚洲欧美日韩精品一区二区 | 久久久国产精品一区二区中文 | 色婷婷福利视频 | 亚洲午夜av久久乱码 | 日日干美女 | 午夜精品久久久久久中宇69 | 中文字幕区 | 激情av一区二区 | 91精品国产91久久久久福利 | 欧美一区视频 | 日韩理论在线视频 | 不卡的av在线播放 | 中文字幕在线看视频国产中文版 | 国产生活一级片 | 亚洲综合欧美日韩狠狠色 | 日韩欧美一区二区在线播放 | 色综合天天天天做夜夜夜夜做 | 97超碰免费在线 | 国产精品久久电影网 | 国产精品一区二区久久久久 | 日韩va欧美va亚洲va久久 | 丁香激情综合国产 | 久久久精品亚洲 | 欧美极度另类性三渗透 | 在线观看播放av | 91久久国产露脸精品国产闺蜜 | 日韩三级视频在线看 | 久久久国产一区二区三区四区小说 | 亚洲国产日本 | 色五月色开心色婷婷色丁香 | 亚洲成人免费在线观看 | 色福利网 | 国产区高清在线 | 日韩av免费一区 | 色姑娘综合 | 欧美美女视频在线观看 | 婷婷激情五月 | 色偷偷中文字幕 | 一区二区三区免费在线播放 | 欧美激情精品久久久 | 午夜精品久久久久久 | 国产日产av | 玖玖在线看 | 91免费高清在线观看 | 日批视频在线 | av性在线| 激情av资源| 日韩av不卡在线观看 | 欧美一级在线观看视频 | 深夜视频久久 | 亚洲黄色免费网站 | 国产黄免费 | 国内视频在线 | 国产午夜三级一区二区三桃花影视 | 探花视频在线观看 | 日韩肉感妇bbwbbwbbw | 中文字幕视频网站 | 国产手机视频在线播放 | 免费高清看电视网站 | 午夜美女福利直播 | 亚洲精品成人在线 | 97电影网手机版 | 日韩中文字幕免费视频 | 天天射天天射天天射 | 超碰人人草人人 | 日韩欧美aaa | 免费国产在线观看 | 国产剧情一区在线 | 国产99亚洲| 久久精品视 | 久久精品伊人 | 国产精华国产精品 | 狠狠激情中文字幕 | 人人澡人人爽欧一区 | 亚洲精品资源 | 99在线免费视频观看 | 色婷婷久久久综合中文字幕 | 亚洲一区二区观看 | 爱色婷婷| 福利区在线观看 | 国产电影黄色av | 欧洲成人av | 韩日电影在线观看 | 日韩免费一区二区 | 国产三级在线播放 | 波多野结衣一区二区三区中文字幕 | 中文字幕免费不卡视频 | 国产综合在线观看视频 | 草久久精品 | 99视频国产精品免费观看 | 超碰人人在线 | 午夜国产影院 | 91精品国产乱码在线观看 | 操操综合网| 久青草视频在线观看 | 国产午夜精品一区二区三区嫩草 | 日韩精品国产一区 | 人人插超碰 | 91麻豆精品国产午夜天堂 | 99精品欧美一区二区蜜桃免费 | 日韩av中文在线观看 | 成片免费观看视频 | 精品国产123 | av电影中文字幕在线观看 | 99国产精品免费网站 | 婷婷六月综合网 | 欧美日本三级 | 国产一级久久 | 91av视屏| 久久资源总站 | 成年人免费观看国产 | 国产精品高潮呻吟久久久久 | 国语自产偷拍精品视频偷 | 成人综合婷婷国产精品久久免费 | 天天插伊人 | 91亚洲精品久久久 | 久久99精品久久久久久久久久久久 | 91精品国产福利在线观看 | 欧美孕妇视频 | 国产二区精品 | 人人干天天射 | 成人午夜影院 | 99久久精品国产网站 | 韩国av免费看 | 4438全国亚洲精品在线观看视频 | 免费看片黄色 | 色综合天天色综合 | 人人干人人搞 | 97在线观看免费高清完整版在线观看 | 99精品免费 | 国产精品成人在线观看 | 男女啪啪视屏 | 国产视频一区在线播放 | 亚洲资源 | 国产成人三级一区二区在线观看一 | 欧美一级视频免费 | 免费观看v片在线观看 | av动图| 黄色福利视频网站 | 五月开心综合 | 午夜精品福利一区二区 | 超碰在线天天 | 成人av在线网 | 亚洲a在线观看 | 午夜精品久久久久久久99水蜜桃 | 亚洲成人av片| 92av视频| 美女天天操 | 五月开心色 | 97视频免费 | av一区二区三区在线观看 | 97操碰| 四虎最新域名 | 国产一区二区视频在线播放 | 不卡av电影在线 | 久草视频视频在线播放 | 精品亚洲va在线va天堂资源站 | 人人爽人人爽人人片 | 久久99亚洲热视 | 在线观看亚洲成人 | 亚洲精品免费在线观看 | 激情中文字幕 | 天天操天天操天天 | 国产精品久久久久久久久久白浆 | 人人玩人人添人人澡超碰 | 免费精品视频 | 狠狠色丁香婷婷综合久小说久 | 人人天天夜夜 | 久草在线播放视频 | 国产精品综合av一区二区国产馆 | 国产中文字幕视频在线 | 免费视频 三区 | 国产在线国产 | 国产91亚洲 | 国产三级国产精品国产专区50 | 亚洲国产婷婷 | 亚洲精品久久久蜜桃直播 | 国际精品久久 | aa级黄色大片 | 中文字幕黄色 | 日韩一区二区三区在线观看 | 国产高清免费观看 | 最近久乱中文字幕 | 久久 亚洲视频 | 日韩亚洲在线视频 | 久久久久高清毛片一级 | 日本少妇高清做爰视频 | 日本性高潮视频 | 欧美视频日韩视频 | 日日爱网站 | 国产在线播放一区二区三区 | 成人免费精品 | 欧洲一区二区在线观看 | 亚洲自拍偷拍色图 | 在线观看视频国产一区 | 国产精品久久久久久久毛片 | 激情视频在线观看网址 | 国内精品毛片 | 国产资源中文字幕 | 综合激情网... | 国产一级免费片 | 欧美精品视 | 中文字幕在线免费看线人 | 中文字幕精品视频 | 国产美女免费看 | 欧美另类sm图片 | 激情视频免费观看 | 69亚洲视频 | 麻豆视频免费 | 欧美一级在线看 | 黄网站色成年免费观看 | 九九免费精品视频在线观看 | 欧美韩国日本在线 | 77国产精品 | 国产又粗又猛又爽又黄的视频免费 | 中文av在线天堂 | 97**国产露脸精品国产 | 久久国产一二区 | 在线播放视频一区 | 国产一级电影在线 | 麻豆果冻剧传媒在线播放 | 亚洲国产日韩av | 亚洲免费一级电影 | 中文字幕a在线 | 欧美孕妇视频 | 国产成人a亚洲精品v | 丁香综合网 | 黄色毛片视频 | 亚洲一区二区视频 | 国产精品婷婷午夜在线观看 | 亚洲精品国产成人 | 在线精品视频免费播放 | 欧美乱淫视频 | 国产精品福利视频 | 福利一区视频 | 在线不卡视频 | 欧美福利网站 | 日本精品在线看 | 国产视频九色蝌蚪 | 精品99在线视频 | 亚洲精品国产欧美在线观看 | 中文字幕日韩在线播放 | 在线高清 | 在线观看免费国产小视频 | 国产精品视频区 |