日韩av黄I国产麻豆传媒I国产91av视频在线观看I日韩一区二区三区在线看I美女国产在线I麻豆视频国产在线观看I成人黄色短片

歡迎訪問 生活随笔!

生活随笔

當前位置: 首頁 > 运维知识 > 数据库 >内容正文

数据库

hive集成spark和mysql

發布時間:2023/12/4 数据库 41 豆豆
生活随笔 收集整理的這篇文章主要介紹了 hive集成spark和mysql 小編覺得挺不錯的,現在分享給大家,幫大家做個參考.

參考:http://ihoge.cn/2018/HiveSpark.html

一、Hive安裝

1.Hive簡介

? Hive是Facebook開發的構建于Hadoop集群之上的數據倉庫應用,可以將結構化的數據文件映射為一張數據庫表,并提供完整的SQL查詢功能,可以將SQL語句轉換為MapReduce任務進行運行。

? Hive是一個可以提供有效的、合理的且直觀的組織和使用數據的模型,即使對于經驗豐富的Java開發工程師來說,將這些常見的數據運算對應到底層的MapReduce Java API也是令人敬畏的。Hive可以幫用戶做這些工作,用戶就可以集中精力關注查詢本身了。Hive可以將大多數的查詢轉換為MapReduce任務。Hive最適合于數據倉庫應用程序,使用該應用程序進行相關的靜態數據分析,不需要快速響應給出結果,而且數據本身也不會頻繁變化。

? Hive不是一個完整的數據庫。Hadoop以及HDFS的設計本身約束和局限性限制了Hive所能勝任的工作。最大的限制就是Hive不支持記錄級別的更新、插入或者刪除。用戶可以通過查詢生成新表或將查詢結果導入到文件中去。因為,Hadoop是一個面向批處理的系統,而MapReduce啟動任務啟動過程需要消耗很長時間,所以Hive延時也比較長。Hive還不支持事務。因此,Hive不支持聯機事務處理(OLTP),更接近于一個聯機分析技術(OLAP)工具,但是,目前還沒有滿足“聯機”部分。

? Hive提供了一系列的工具,可以用來進行數據提取轉化加載(ETL),其中,ETL是一種可以存儲、查詢和分析存儲在Hadoop中的大規模數據的機制。因此,Hive是最適合數據倉庫應用程序的,它可以維護海量數據,而且可以對數據進行挖掘,然后形成意見和報告等。

? 因為大多數的數據倉庫應用程序是基于SQL的關系數據庫現實的,所以,Hive降低了將這些應用程序移植到Hadoop上的障礙。如果用戶懂得SQL,那么學習使用Hive會很容易。因為Hive定義了簡單的類SQL 查詢語言——HiveQL,這里值得一提的是,與SQLServer、Oracle相比,HiveQL和MySQL提供的SQL語言更接近。同樣的,相對于其他的Hadoop語言和工具來說,Hive也使得開發者將基于SQL的應用程序移植到Hadoop變得更加容易。

2.Hive安裝

? 接下來,開始Hive的安裝,安裝Hive之前,首先需要裝好Hadoop和Spark。在Hive官網可下載最新版本Hive,并且能夠查閱版本改動說明,本次課程采用1.2.2版本進行安裝。可以采用WinSCP傳輸apache-hive-1.2.2-bin.tar至虛擬機“下載”文件夾中,再進行后續安裝。

cd ~/下載 # 進入下載文件夾 sudo tar -zxf apache-hive-1.2.2-bin.tar.gz -C /usr/local # 安裝至/usr/local文件夾內 cd /usr/local # 進入/usr/local文件夾 sudo mv ./apache-hive-1.2.2-bin/ ./hive # 更名為hive sudo chown -R hadoop ./hive # 修改hive權限 mkdir -p /usr/local/hive/warehouse # 創建元數據存儲文件夾 sudo chmod a+rwx /usr/local/hive/warehouse # 修改文件權限

然后添加Hive安裝路徑至系統環境變量

vim ~/.profile

添加下述路徑

#Hive export HIVE_HOME=/usr/local/hive export PATH=$PATH:$HIVE_HOME/bin

并使之生效

source ~/.profile

修改hive讀取spark的jar包地址

cd /usr/local/hive/bin vim hive

修改為

# add Spark assembly jar to the classpath if [[ -n "$SPARK_HOME" ]] thensparkAssemblyPath=`ls ${SPARK_HOME}/jars/*.jar`CLASSPATH="${CLASSPATH}:${sparkAssemblyPath}" fi

然后采用hive默認配置

cd /usr/local/hive/conf cp hive-default.xml.template hive-default.xml

嘗試啟動Hive,此時啟動是以本地模式進行啟動,能正常啟動則說明安裝成功。

start-all.sh hive

? 若出現jline等jar包錯誤,則需要進入到hadoop安裝目錄下的share/hadoop/yarn/lib下刪除jline-0.9.94.jar文件,再啟動hive即可(因為高版本的Hadoop對Hive有捆綁)。

cd /usr/local/hadoop/share/hadoop/yarn/lib rm -rf jline-0.9.94.jar

3. Hive的基本配置

? 在安裝Hive時,默認情況下,元數據存儲在Derby數據庫中。Derby是一個完全用Java編寫的數據庫,所以可以跨平臺,但需要在JVM中運行 。因為多用戶和系統可能需要并發訪問元數據存儲,所以默認的內置數據庫并不適用于生產環境。任何一個適用于JDBC進行連接的數據庫都可用作元數據庫存儲,這里我們把MySQL作為存儲元數據的數據庫。接下來,我們分別對這兩種方式進行介紹,即使用Derby數據庫的方式和使用MySQL數據庫的方式。

3.1 使用Derby作為元數據庫

? 本地模式中,用戶的“表”等元數據信息,都默認存儲在file://user/hive/warehouse,對于其他模式默認存儲路徑是hdfs://namenode_server/user/hive/warehouse。使用如下命令編輯hive-site.xml文件:

vim /usr/local/hive/conf/hive-site.xml

在hive-site.xml文件添加以下內容:

<?xml version="1.0" encoding="UTF-8" standalone="no"?> <?xml-stylesheet type="text/xsl" href="configuration.xsl"?> <configuration> <property><name>hive.metastore.warehouse.dir</name><value>/usr/local/hive/warehouse</value> <description>location of default database for the warehouse</description></property> <property><name>javax.jdo.option.ConnectionURL</name><value>jdbc:derby:;databaseName=/usr/local/hive/metastore_db;create=true</value> <description>JDBC connect string for a JDBC metastore</description></property> </configuration>

? 若要以偽分布式模式和分布式模式配置Hive,只需根據Hadoop配置文件core-site.xml中fs.defaultFS的值對hive.metastore.warehouse.dir 進行相應修改即可。配置完成之后即可啟動Hive,然后嘗試使用HiveQL命令創建表。

hive show databases; create database if not exists derby; use derby; create table x(a int); select * from x; drop table x; exit;

3.2 使用MySQL作為元數據庫

3.2.1 安裝MySQL

首先,查看并卸載系統自帶的MySQL相關安裝包(或之前安裝過MySQL),命令如下:

sudo apt install rpm rpm -qa | grep mysql

若沒有安裝rpm工具,系統會有提示,按照提示安裝即可。接下來查看是否有系統自帶的MySQL相關安裝包,若有,按下面命令刪除:

sudo rpm -e --nodeps mysql-libs-xxxxxx

注:xxxxx是已經安裝的mysql的版本號,然后進行MySQL的安裝

sudo apt-get install mysql-server

安裝完成后,啟動設置MySQL服務

sudo service mysql start mysql -u root -p

當然,還可使用下列命令進行額外設置

sudo chkconfig mysql on # 設置開機自動啟動 sudo /usr/bin/mysqladmin -u root password '123' # 設置root用戶密碼

接下來,創建hive用戶及其數據庫等,用于存放Hive的元數據

sudo vi /etc/mysql/my.cnf 注釋掉:bind-address = 127.0.0.1create database hive; grant all on *.* to hive@localhost identified by 'hive'; flush privileges; exit;

切換hive用戶登陸

mysql -u hive -p hive show databases;

若能看到hive數據庫存在,則說明創建成功。

3.2.2 修改Hive配置

接下來,修改hive-site.xml文件

vim /usr/local/hive/conf/hive-site.xml

輸入下列信息

<?xml version="1.0" encoding="UTF-8" standalone="no"?> <?xml-stylesheet type="text/xsl" href="configuration.xsl"?> <configuration><property><name>javax.jdo.option.ConnectionURL</name><value>jdbc:mysql://localhost:3306/hive?createDatabaseIfNotExist=true</value><description>JDBC connect string for a JDBC metastore</description></property><property><name>javax.jdo.option.ConnectionDriverName</name><value>com.mysql.jdbc.Driver</value><description>Driver class name for a JDBC metastore</description></property><property><name>javax.jdo.option.ConnectionUserName</name><value>hive</value><description>username to use against metastore database</description></property><property><name>javax.jdo.option.ConnectionPassword</name><value>hive</value><description>password to use against metastore database</description></property> </configuration>

或者指定元數據文件夾

<?xml version="1.0" encoding="UTF-8" standalone="no"?> <?xml-stylesheet type="text/xsl" href="configuration.xsl"?> <configuration> <property><name>hive.metastore.warehouse.dir</name><value>/usr/local/hive/warehouse</value> <description>location of default database for the warehouse</description></property> <property><name>javax.jdo.option.ConnectionURL</name><value>jdbc:mysql://localhost:3306/hive;createDatebaseIfNotExist=true</value> <description>JDBC connect string for a JDBC metastore</description></property> <property><name>javax.jdo.option.ConnectionDriverName</name><value>com.mysql.jdbc.Driver</value><description>Driver class name for a JDBC metastore</description></property> <property> <name>javax.jdo.option.ConnectionPassword </name> <value>hive</value> </property> <property><name>javax.jdo.option.ConnectionUserName</name><value>hive</value><description>Username to use against metastore database</description></property> </configuration>

然后將JDBC文件放到hive的lib文件夾內,JDBC包的下載參考前述部分

cd ~/下載 cp mysql-connector-java-5.1.26-bin.jar /usr/local/hive/lib mkdir -p /usr/local/hive/tmp sudo chmod a+rwx /usr/local/hive/tmp

也可從官網直接下載最新版jdbc

wget https://dev.mysql.com/get/Downloads/Connector-J/mysql-connector-java-5.1.45.tar.gz

然后進行解壓安裝。當然,如果之前刪除了jline-0.9.94.jar,此時需要把hive對應的jar包放進去

cp /usr/local/hive/lib/jline-2.12.jar /usr/local/hadoop/share/hadoop/yarn/lib

然后嘗試啟動hive

schematool -dbType mysql -initSchema start-all.sh hive

成啟動后,即可輸入hive –help查看hive常用命令。

二、Hive使用

1.Hive基本數據類型

首先,我們簡單敘述一下HiveQL的基本數據類型。

Hive支持基本數據類型和復雜類型, 基本數據類型主要有數值類型(INT、FLOAT、DOUBLE ) 、布爾型和字符串, 復雜類型有三種:ARRAY、MAP 和 STRUCT。

1.1 基本數據類型

  • TINYINT: 1個字節
  • SMALLINT: 2個字節
  • INT: 4個字節
  • BIGINT: 8個字節
  • BOOLEAN: TRUE/FALSE
  • FLOAT: 4個字節,單精度浮點型
  • DOUBLE: 8個字節,雙精度浮點型STRING 字符串

1. 2 復雜數據類型

  • ARRAY: 有序字段
  • MAP: 無序字段
  • STRUCT: 一組命名的字段

2.常用的HiveQL操作命令

? Hive常用的HiveQL操作命令主要包括:數據定義、數據操作。接下來詳細介紹一下這些命令即用法(想要了解更多請參照《Hive編程指南》一書)。

2.1 數據定義

主要用于創建修改和刪除數據庫、表、視圖、函數和索引。

  • 創建、修改和刪除數據庫

    create database if not exists hive; #創建數據庫 show databases; #查看Hive中包含數據庫 show databases like 'h.*'; #查看Hive中以h開頭數據庫 describe databases; #查看hive數據庫位置等信息 alter database hive set dbproperties; #為hive設置鍵值對屬性 use hive; #切換到hive數據庫下 drop database if exists hive; #刪除不含表的數據庫 drop database if exists hive cascade; #刪除數據庫和它中的表

    注意,除 dbproperties屬性外,數據庫的元數據信息都是不可更改的,包括數據庫名和數據庫所在的目錄位置,沒有辦法刪除或重置數據庫屬性。

  • 創建、修改和刪除表

    #創建內部表(管理表)create table if not exists hive.usr(name string comment 'username',pwd string comment 'password',address struct<street:string,city:string,state:string,zip:int>,comment 'home address',identify map<int,tinyint> comment 'number,sex') comment 'description of the table' tblproperties('creator'='me','time'='2016.1.1'); #創建外部表create external table if not exists usr2(name string,pwd string, address struct<street:string,city:string,state:string,zip:int>,identify map<int,tinyint>) row format delimited fields terminated by ','location '/usr/local/hive/warehouse/hive.db/usr'; #創建分區表create table if not exists usr3(name string,pwd string,address struct<street:string,city:string,state:string,zip:int>,identify map<int,tinyint>) partitioned by(city string,state string); #復制usr表的表模式 create table if not exists hive.usr1 like hive.usr; show tables in hive; show tables 'u.*'; #查看hive中以u開頭的表 describe hive.usr; #查看usr表相關信息 alter table usr rename to custom; #重命名表 #為表增加一個分區alter table usr2 add if not exists partition(city=”beijing”,state=”China”) location '/usr/local/hive/warehouse/usr2/China/beijing'; #修改分區路徑alter table usr2 partition(city=”beijing”,state=”China”)set location '/usr/local/hive/warehouse/usr2/CH/beijing';#刪除分區alter table usr2 drop if exists partition(city=”beijing”,state=”China”)#修改列信息alter table usr change column pwd password string after address; alter table usr add columns(hobby string); #增加列 alter table usr replace columns(uname string); #刪除替換列 alter table usr set tblproperties('creator'='liming'); #修改表屬性 alter table usr2 partition(city=”beijing”,state=”China”) #修改存儲屬性 set fileformat sequencefile; use hive; #切換到hive數據庫下 drop table if exists usr1; #刪除表 drop database if exists hive cascade; #刪除數據庫和它中的表
  • 視圖和索引的創建、修改和刪除

    基本語法格式

    create view view_name as....; #創建視圖 alter view view_name set tblproperties(…); #修改視圖

    因為視圖是只讀的,所以 對于視圖只允許改變元數據中的 tblproperties屬性。

    #刪除視圖drop view if exists view_name;#創建索引create index index_name on table table_name(partition_name/column_name) as 'org.apache.hadoop.hive.ql.index.compact.CompactIndexHandler' with deferred rebuild....;

    這里’org.apache.hadoop.hive.ql.index.compact.CompactIndexHandler’是一個索引處理器,即一個實現了索引接口的Java類,另外Hive還有其他的索引實現。

    alter index index_name on table table_name partition(...) rebulid; #重建索引

    如果使用 deferred rebuild,那么新索引成空白狀態,任何時候可以進行第一次索引創建或重建。

    show formatted index on table_name; #顯示索引 drop index if exists index_name on table table_name; #刪除索引

2.2 數據操作

主要實現的是將數據裝載到表中(或是從表中導出),并進行相應查詢操作

  • 向表中裝載數據

    create table if not exists hive.stu(id int,name string) row format delimited fields terminated by '\t'; create table if not exists hive.course(cid int,sid int) row format delimited fields terminated by '\t';

    向表中裝載數據有兩種方法:從文件中導入和通過查詢語句插入。

    • 從文件中導入

    假如這個表中的記錄存儲于文件stu.txt中,該文件的存儲路徑為usr/local/hadoop/examples/stu.txt,內容如下。

    1 Hello 2 World 3 CDA load data local inpath '/usr/local/hadoop/examples/stu.txt' overwrite into table stu;
    • 通過查詢語句插入

    使用如下命令,創建stu1表,它和stu表屬性相同,我們要把從stu表中查詢得到的數據插入到stu1中:

    create table stu1 as select id,name from stu;

    上面是創建表,并直接向新表插入數據;若表已經存在,向表中插入數據需執行以下命令:

    insert overwrite table stu1 select id,name from stu where(條件);

    這里關鍵字overwrite的作用是替換掉表(或分區)中原有數據,換成into關鍵字,直接追加到原有內容后。

  • 寫入臨時文件

    insert overwrite local directory '/usr/local/hadoop/tmp/stu' select id,name from stu;
  • 查詢操作

    select id,name, case when id=1 then 'first' when id=2 then 'second' else 'third'

2.3 連接

? 連接(join)是將兩個表中在共同數據項上相互匹配的那些行合并起來, HiveQL 的連接分為內連接、左向外連接、右向外連接、全外連接和半連接 5 種。

  • 內連接(等值連接)

    內連接使用比較運算符根據每個表共有的列的值匹配兩個表中的行。

    首先,我們先把以下內容插入到course表中(自行完成)。

1 3 2 1 3 1

? 下面, 查詢stu和course表中學號相同的所有行,命令如下:

select stu.*, course.* from stu join course on(stu .id=course .sid);
  • 左連接

    ? 左連接的結果集包括“LEFT OUTER”子句中指定的左表的所有行, 而不僅僅是連接列所匹配的行。如果左表的某行在右表中沒有匹配行, 則在相關聯的結果集中右表的所有選擇列均為空值,命令如下:

select stu.*, course.* from stu left outer join course on(stu .id=course .sid);
  • 右連接

    ? 右連接是左向外連接的反向連接,將返回右表的所有行。如果右表的某行在左表中沒有匹配行,則將為左表返回空值。命令如下:

select stu.*, course.* from stu right outer join course on(stu .id=course .sid);
  • 全連接

    ? 全連接返回左表和右表中的所有行。當某行在另一表中沒有匹配行時,則另一個表的選擇列表包含空值。如果表之間有匹配行,則整個結果集包含基表的數據值。命令如下:

select stu.*, course.* from stu full outer join course on(stu .id=course .sid);
  • 半連接

    ? 半連接是 Hive 所特有的, Hive 不支持 in 操作,但是擁有替代的方案; left semi join, 稱為半連接, 需要注意的是連接的表不能在查詢的列中,只能出現在 on 子句中。命令如下:

select stu.* from stu left semi join course on(stu .id=course .sid);

三、Spark與Hive集成

1.安裝Spark

? 為了讓Spark能夠訪問Hive,必須為Spark添加Hive支持。Spark官方提供的預編譯版本,通常是不包含Hive支持的,需要采用源碼編譯,編譯得到一個包含Hive支持的Spark版本。首先測試一下電腦上已經安裝的Spark版本是否支持Hive

spark-shell

這樣就啟動進入了spark-shell,然后輸入:

import org.apache.spark.sql.hive.HiveContext

如果報錯,則說明spark無法識別org.apache.spark.sql.hive.HiveContext,這時我們就需要采用源碼編譯方法得到支持hive的spark版本。

  • 下載源碼文件

    ? 進入官網后,可以按照下圖配置選擇“2.1.0(Dec 28, 2016)”和“SourceCode”,然后,在圖中紅色方框內,有個“Download Spark: spark-2.1.0.tgz”的下載鏈接,點擊該鏈接就可以下載Spark源碼文件了。

  • 編譯過程

    cd /home/hadoop/spark-2.0.2 ./dev/make-distribution.sh —tgz —name h27hive -Pyarn -Phadoop-2.7 -Dhadoop.version=2.7.1 -Phive -Phive-thriftserver -DskipTests

    或可選擇直接安裝已編譯好的版本,把下好的spark-2.0.2-bin-h27hive.tgz放到下載文件夾內

  • Spark解壓安裝

    cd ~/下載 # 進入下載文件夾 sudo tar -zxf spark-2.0.2-bin-h27hive.tgz -C /usr/local # 安裝至/usr/local文件夾內 cd /usr/local # 進入/usr/local文件夾 sudo mv ./spark-1.4.0-bin-hadoop2.4/ ./spark # 更名為spark sudo chown -R hadoop ./spark # 修改sqoop權限
  • 添加環境變量

    注,如果電腦上已經裝了另一個spark,此處可不增設環境變量

    vim ~/.profile

    添加spark安裝路徑

    #sparkexport SPARK_HOME=/usr/local/spark export PATH=$PATH:$SPARK_HOME/bin

    并保存修改

    source ~/.profile
  • 修改Spark配置

    cd /usr/local/spark/conf # 進入spark配置文件夾 sudo cp spark-env.sh.template spark-env.sh # 復制spark-env臨時文件為配置文件 vim spark-env.sh # 編輯spark配置文件

    添加下述配置信息

    export SPARK_DIST_CLASSPATH=$(/usr/local/hadoop/bin/hadoop classpath)

    有了上面的配置信息以后,Spark就可以把數據存儲到Hadoop分布式文件系統HDFS中,也可以從HDFS中讀取數據。如果沒有配置上面信息,Spark就只能讀寫本地數據,無法讀寫HDFS數據。在偽分布式模式下僅測試是否安裝成功時,其他配置暫時可不做修改。

  • 運行樣例程序

    cd /usr/local/spark bin/run-example SparkPi 2>&1 | grep "Pi is"
  • 放置Hive配置文件

    為了讓Spark能夠訪問Hive,需要把Hive的配置文件hive-site.xml拷貝到Spark的conf目錄下

    cd /usr/local/spark/conf cp /usr/local/hive/conf/hive-site.xml . ll
  • 測試是否集成成功

    spark-shell

    然后輸入

    import org.apache.spark.sql.hive.HiveContext

2.在Hive中創建數據庫和表

首先啟動MySQL數據庫:

service mysql start

? 由于Hive是基于Hadoop的數據倉庫,使用HiveQL語言撰寫的查詢語句,最終都會被Hive自動解析成MapReduce任務由Hadoop去具體執行,因此,需要啟動Hadoop,然后再啟動Hive。
然后執行以下命令啟動Hadoop:

start-all.sh

Hadoop啟動成功以后,可以再啟動Hive:

hive

然后在hive命令提示符內進行操作

create database if not exists sparktest; show databases;create table if not exists sparktest.student( > id int, > name string, > gender string, > age int); use sparktest; show tables; insert into student values(1,'Xueqian','F',23); insert into student values(2,'Weiliang','M',24); select * from student;

通過上面操作,我們就在Hive中創建了sparktest.student表,這個表有兩條數據。

3.連接Hive讀寫數據

? 現在我們看如何使用Spark讀寫Hive中的數據。注意,操作到這里之前,你一定已經按照前面的各個操作步驟,啟動了Hadoop、Hive、MySQL和spark-shell(包含Hive支持)。在進行編程之前,我們需要做一些準備工作,我們需要修改“/usr/local/sparkwithhive/conf/spark-env.sh”這個配置文件:

cd /usr/local/spark/conf/ vim spark-env.sh

這樣就使用vim編輯器打開了spark-env.sh這個文件,輸入下面內容:

export SPARK_DIST_CLASSPATH=$(/usr/local/hadoop/bin/hadoop classpath) export JAVA_HOME=/usr/lib/jvm/java-8-openjdk-amd64 export CLASSPATH=$CLASSPATH:/usr/local/hive/lib export SCALA_HOME=/usr/local/scala export HADOOP_CONF_DIR=/usr/local/hadoop/etc/hadoop export HIVE_CONF_DIR=/usr/local/hive/conf export SPARK_CLASSPATH=$SPARK_CLASSPATH:/usr/local/hive/lib/mysql-connector-java-5.1.26-bin.jar

保存并推出,然后啟動spark-shell

spark-shell

然后在shell界面中輸入

import org.apache.spark.sql.Row import org.apache.spark.sql.SparkSession case class Record(key: Int, value: String) val warehouseLocation = "spark-warehouse" val spark = SparkSession.builder().appName("Spark Hive Example").config("spark.sql.warehouse.dir", warehouseLocation).enableHiveSupport().getOrCreate() import spark.implicits._ import spark.sql sql("SELECT * FROM sparktest.student").show()

然后再開一個命令行界面,啟動hive界面,查看spark-shell中對hive表插入數據的結果

hive

然后輸入

use sparktest; select * from student;

然后在spark-shell中進行數據插入

import java.util.Properties import org.apache.spark.sql.types._ import org.apache.spark.sql.Row //下面我們設置兩條數據表示兩個學生信息 val studentRDD = spark.sparkContext.parallelize(Array("3 Rongcheng M 26","4 Guanhua M 27")).map(_.split(" ")) //下面要設置模式信息 val schema = StructType(List(StructField("id", IntegerType, true),StructField("name", StringType, true),StructField("gender", StringType, true),StructField("age", IntegerType, true))) //下面創建Row對象,每個Row對象都是rowRDD中的一行 val rowRDD = studentRDD.map(p => Row(p(0).toInt, p(1).trim, p(2).trim, p(3).toInt)) //建立起Row對象和模式之間的對應關系,也就是把數據和模式對應起來 val studentDF = spark.createDataFrame(rowRDD, schema) //查看studentDF studentDF.show() //下面注冊臨時表 studentDF.registerTempTable("tempTable") sql("insert into sparktest.student select * from tempTable")

然后切換到hive窗口,查看數據庫內容變化

select * from student;

能夠查詢到新增數據結果,則說明操作成功。

總結

以上是生活随笔為你收集整理的hive集成spark和mysql的全部內容,希望文章能夠幫你解決所遇到的問題。

如果覺得生活随笔網站內容還不錯,歡迎將生活随笔推薦給好友。

久久视频网址 | 日韩深夜在线观看 | 国产精品久久久久aaaa | 久久久18| 手机在线永久免费观看av片 | 天天操狠狠操 | 青青久草在线视频 | 日韩视频一区二区 | 午夜精品一区二区三区视频免费看 | 欧美日韩另类视频 | 久久久久久久久福利 | 欧美坐爱视频 | 午夜美女wwww| 久草热久草视频 | 精品久久久免费视频 | 91xav| 91精彩视频| 日韩在线观看的 | 久草在线资源视频 | 激情影音先锋 | 国产黄色大片免费看 | 国产伦精品一区二区三区在线 | 国产小视频在线免费观看 | 亚洲国产中文字幕 | 国产中文字幕国产 | 日韩免费专区 | 国产裸体视频bbbbb | 最新99热 | 最新中文在线视频 | 中文字幕一区二区在线播放 | 中文字幕精品视频 | 午夜精品久久久久久久久久 | 亚洲一级影院 | 国产资源免费在线观看 | 久久av在线播放 | 欧美日韩亚洲在线观看 | 99久久国产免费,99久久国产免费大片 | 韩国在线一区 | 精品欧美一区二区三区久久久 | 日本精品在线看 | 综合网欧美 | 97精品视频在线 | 久久这里只有精品视频99 | 免费精品在线 | 日韩动漫免费观看高清完整版在线观看 | 97在线观看免费观看高清 | 亚洲免费国产视频 | 香蕉免费在线 | 免费a级大片 | 午夜色性片 | 色婷婷免费视频 | 人人dvd | 在线免费亚洲 | 人人爽人人澡 | 99热只有精品在线观看 | 一区中文字幕 | 国产黄色片在线 | 中文字幕在线久一本久 | 国产精品美女视频 | 国产一区二区电影在线观看 | 日韩一区二区三区免费电影 | 久久天堂影院 | 在线视频观看成人 | 狠狠干网站 | 成年人在线视频观看 | 亚洲综合成人av | 成人毛片在线视频 | 久久久久久久影院 | 97色国产 | 国产又粗又长的视频 | 免费av在| 色婷婷国产精品一区在线观看 | 在线观看亚洲a | 午夜精品一区二区三区免费 | 粉嫩av一区二区三区四区在线观看 | 久久成人精品视频 | 狠狠狠色丁香婷婷综合激情 | www国产亚洲精品久久网站 | 国产精品美女久久久久久久久久久 | 91亚洲精品乱码久久久久久蜜桃 | 精品99久久 | 91免费的视频在线播放 | 日韩国产精品一区 | 久久影视一区 | 亚洲网久久 | 久久韩国免费视频 | 久久99国产精品久久99 | 蜜臀av网址 | 丁香婷五月 | 精品女同一区二区三区在线观看 | 能在线观看的日韩av | 久草在线久草在线2 | 中文字幕国内精品 | 国产系列精品av | 六月丁香激情综合色啪小说 | 国产一区久久 | 在线观看激情av | www操操| 欧美小视频在线观看 | 国产小视频91 | 久草视频在线免费看 | 欧洲一区二区在线观看 | 亚洲电影自拍 | 99久久精品免费看国产四区 | 久久婷婷久久 | 91视频91自拍 | 亚洲aⅴ在线观看 | 欧美久久影院 | 日韩 在线a| 国产精品网红直播 | 超碰午夜| 婷婷色av| 国产美女久久 | 色婷婷狠狠五月综合天色拍 | 国产精品麻豆99久久久久久 | 探花视频在线版播放免费观看 | 综合影视| 99高清视频有精品视频 | 成人网色 | 欧美嫩草影院 | 国产短视频在线播放 | av在线网站免费观看 | 中文免费 | 色婷婷视频在线观看 | 狠狠色丁香久久婷婷综合_中 | 久草爱 | 人人爽人人做 | 黄色a大片 | 亚洲午夜大片 | 99中文在线| 黄污网站在线观看 | 免费国产一区二区 | 99中文字幕视频 | 色91在线视频 | 国产精品亚 | 国产精品99久久久久久有的能看 | 制服丝袜欧美 | 久久久久久久久久免费视频 | 国产成人精品一二三区 | 久草在在线 | 伊人宗合网 | 国产成人一区二区啪在线观看 | 99久久这里有精品 | 狠狠躁夜夜躁人人爽超碰91 | 亚洲黄色精品 | 99热精品国产 | 国产精品久免费的黄网站 | 99久久精品无码一区二区毛片 | 三级视频片 | 在线观看国产成人av片 | 丁香色综合 | 久久精品国产99 | 亚洲国产字幕 | 九九在线视频免费观看 | 国产高清久久久 | 偷拍精偷拍精品欧洲亚洲网站 | 中国一级特黄毛片大片久久 | 色婷婷综合久久久中文字幕 | 在线观看网站av | 国产一区私人高清影院 | 人人网av | 久久99国产精品免费 | 国产精品18久久久久久久网站 | 一区二区三区 亚洲 | 久久黄色网址 | 国产在线不卡 | 美女视频久久 | 99国产精品久久久久老师 | 午夜三级福利 | 久久久久久看片 | 丁香激情五月婷婷 | 国产成人精品一区二区三区在线 | 亚洲欧美成人综合 | 奇米先锋 | 国产大陆亚洲精品国产 | 激情五月播播久久久精品 | a视频免费看 | 免费观看的av | 欧美日韩大片在线观看 | 久99久视频 | 日韩电影久久久 | 中文字幕字幕中文 | 91大神精品视频在线观看 | 性色视频在线 | 十八岁以下禁止观看的1000个网站 | 国产精品一区欧美 | 夜色资源站wwwcom | 西西444www大胆无视频 | h文在线观看免费 | 日韩欧美视频免费在线观看 | 久热久草 | 亚洲 综合 国产 精品 | 国产一区视频在线观看免费 | 美国三级黄色大片 | 欧美淫视频 | 蜜臀av网址 | av免费看在线 | 新版资源中文在线观看 | 懂色av懂色av粉嫩av分享吧 | 粉嫩aⅴ一区二区三区 | 免费看国产黄色 | 91精品夜夜 | 青草视频在线免费 | 亚洲电影第一页av | 五月天天在线 | 色视频一区 | 亚洲欧洲中文日韩久久av乱码 | 欧美性粗大hdvideo | 狠狠躁夜夜躁人人爽超碰91 | 亚洲 欧美 日韩 综合 | 国产精品久久久久久婷婷天堂 | 丁香 婷婷 激情 | 综合天堂av久久久久久久 | 日韩电影在线看 | 狠狠干天天 | 亚洲综合欧美精品电影 | 成人黄色在线播放 | 日日夜夜狠狠 | 欧美成年黄网站色视频 | 免费电影播放 | 一区免费观看 | 成人av片免费看 | 五月婷香蕉久色在线看 | 激情伊人五月天久久综合 | 精品视频亚洲 | 午夜精品一区二区三区在线视频 | 天天综合天天综合 | 久久久久久影视 | 国产成人精品不卡 | 日韩有码在线观看视频 | 欧美精品v国产精品v日韩精品 | 免费在线观看视频a | 免费高清av在线看 | 国产丝袜网站 | 中文字幕在线观看1 | 狠狠操电影网 | 欧美久草在线 | 日韩精品中文字幕av | 91爱在线| 久久综合九色99 | 国产麻豆电影在线观看 | 久草网站 | 91精品推荐 | 草久在线观看视频 | 99久久久久| 成人久久精品 | 91尤物国产尤物福利在线播放 | 午夜在线国产 | 91在线看黄 | 婷婷久草 | 亚洲理论片| 中文字幕资源网在线观看 | 色婷婷久久一区二区 | 视频一区亚洲 | 欧美天天综合 | 国产精品v欧美精品 | 蜜桃传媒一区二区 | 久久成人国产精品免费软件 | 男女激情网址 | 中文一二区 | 天天操比 | 亚洲综合欧美日韩狠狠色 | 99久久综合国产精品二区 | 人成午夜视频 | 久久超级碰视频 | 亚洲精品88欧美一区二区 | 天堂久久电影网 | 欧美精品乱码99久久影院 | 国产黄色在线网站 | 狠狠狠狠狠狠狠狠干 | 久久免费毛片视频 | 韩国av不卡 | 久久全国免费视频 | 国产视频九色蝌蚪 | 亚洲成a人片在线观看中文 中文字幕在线视频第一页 狠狠色丁香婷婷综合 | 99热这里只有精品8 久久综合毛片 | 国产999精品久久久久久麻豆 | 久久99深爱久久99精品 | 日韩激情第一页 | 91精品久久久久久久99蜜桃 | 美女视频黄免费的久久 | 少妇资源站 | 欧美人体xx| 色姑娘综合 | 欧美九九视频 | 日日夜操 | 在线99视频| 夜夜高潮夜夜爽国产伦精品 | 日日干干夜夜 | 在线观看免费av片 | 日韩精品在线视频 | 波多野结衣一区 | 国产精品久久久久永久免费 | 久草在线综合 | 看片一区二区三区 | 五月天色综合 | 日韩午夜在线 | 一区二区三区在线观看 | 少妇自拍av | 亚洲国产成人久久 | av在线电影网站 | 久草视频观看 | 国产又粗又猛又黄视频 | 国语黄色片 | 日本韩国欧美在线观看 | 久久婷五月 | 日韩一区二区三区免费视频 | 97在线观视频免费观看 | 人人狠狠综合久久亚洲婷 | 91私密视频 | 久久久久欧美精品 | 亚洲国内精品 | 久久超级碰视频 | 丁香花在线视频观看免费 | 精品999| 91亚·色| 亚洲国产精品成人精品 | 成人午夜电影网站 | 中文字幕在线观看网 | 91精品久久久久久久91蜜桃 | 亚洲成人蜜桃 | 婷婷av色综合 | 五月婷婷视频在线 | 久久精品婷婷 | 麻豆传媒在线免费看 | 亚洲精品看片 | 婷婷在线综合 | 亚洲电影网站 | av在线不卡观看 | 国产亚洲精品综合一区91 | 亚洲精品久久久久久久蜜桃 | 婷婷色婷婷 | 91看片麻豆| 亚洲欧美日韩一二三区 | 国产午夜精品一区二区三区四区 | 日韩黄色软件 | 波多野结衣精品在线 | 国产黄色大片免费看 | 在线观看中文字幕av | 婷婷国产一区二区三区 | 免费看片网址 | 99热最新 | av一级在线 | 国产精品亚州 | 98精品国产自产在线观看 | 黄色高清视频在线观看 | 麻豆视频大全 | 国产69久久久 | 国产在线观看网站 | 国产成人精品午夜在线播放 | 狠狠色丁香婷婷综合基地 | 国产精品麻豆视频 | 天天操天天吃 | 成人黄色在线观看视频 | aⅴ精品av导航 | 九九久久久久99精品 | 日韩午夜三级 | 精品99999| 在线观看亚洲国产精品 | 国产精品视频专区 | 五月婷婷综合在线 | 日韩久久久久久久久久 | 91传媒在线播放 | 91久久爱热色涩涩 | 日韩动态视频 | 国产1区2区3区精品美女 | 色成人亚洲网 | 日韩欧美一区二区三区在线观看 | 国内视频1区 | 日韩免费一级a毛片在线播放一级 | 日韩三级视频在线观看 | 亚洲一区二区视频在线播放 | 国产麻豆精品传媒av国产下载 | 久久综合福利 | 欧美一二三区在线播放 | 久久免费毛片视频 | 亚洲精品www久久久 www国产精品com | 亚洲综合欧美日韩狠狠色 | 久久久久久久18 | 国产剧情久久 | 欧美一级免费片 | 正在播放国产一区二区 | 一级片观看 | 草久视频在线观看 | 婷婷av色综合 | 国产一区国产二区在线观看 | 91综合久久一区二区 | 91丨九色丨高潮 | av电影一区二区三区 | 日韩高清不卡在线 | 中文字幕日韩av | 欧美激情精品久久久久久 | 国产精品mm | 国产中文字幕亚洲 | 五月天综合婷婷 | 在线v片免费观看视频 | www.啪啪.com| 日韩欧美视频二区 | 国产一区高清在线观看 | 最近能播放的中文字幕 | 亚洲激情五月 | 国精产品满18岁在线 | 亚州精品视频 | 久久久久成人免费 | 美女视频永久黄网站免费观看国产 | av电影在线播放 | 欧美国产大片 | 天天射综合网站 | 国产女人18毛片水真多18精品 | 免费在线观看的av网站 | 亚洲aⅴ久久精品 | 国产精品久久久久久久久久直播 | 国产美腿白丝袜足在线av | 91视频免费网站 | 免费日韩一区二区三区 | 日本在线观看一区 | 日韩久久精品一区二区 | 国产黄在线观看 | 国产啊v在线观看 | 国产在线欧美日韩 | av观看在线观看 | 日日噜噜噜噜夜夜爽亚洲精品 | 九九九九九国产 | 国产区精品在线观看 | 国产在线视频导航 | 亚洲成人蜜桃 | 色香蕉视频 | 国产精品视频久久久 | 欧美久久久久久久久久久 | 久草视频免费看 | 黄色avwww| 亚洲天堂网站视频 | 精品国产自在精品国产精野外直播 | 亚洲国产日韩在线 | 国产精品高潮呻吟久久av无 | 国产成人三级在线观看 | 一 级 黄 色 片免费看的 | 九九热在线精品 | 亚洲欧美国产日韩在线观看 | 91影视成人 | 日日弄天天弄美女bbbb | 精品久久久久一区二区国产 | 色中色资源站 | 成年人在线免费看片 | 久久久综合 | 国产精品涩涩屋www在线观看 | 91精品视频免费看 | 国产精品美女久久久久久2018 | 久久看视频 | 在线观看91精品视频 | 444av| 九九视频在线播放 | 成人免费视频a | 伊人国产女 | 碰超在线 | 91精品欧美一区二区三区 | 国产麻豆精品传媒av国产下载 | 久久久精品国产一区二区三区 | 日韩理论在线 | 国产精品高潮呻吟久久久久 | av福利免费| 91成人免费观看视频 | 亚洲九九九在线观看 | 精品久久久久久国产偷窥 | 欧美精品免费在线观看 | 99久久日韩精品免费热麻豆美女 | 91亚洲国产成人久久精品网站 | 成人免费视频网站 | 久久久999精品视频 国产美女免费观看 | 亚洲国产精品久久久 | av亚洲产国偷v产偷v自拍小说 | 九九热免费观看 | 欧美亚洲另类在线视频 | 亚洲精品一区二区三区在线观看 | 中国一级特黄毛片大片久久 | 亚洲精品欧美专区 | 成年人看片网站 | 色播99 | 久久,天天综合 | 久久久久久久久久久久影院 | 亚洲免费一级 | 亚洲日韩中文字幕 | 国产一卡久久电影永久 | 精品极品在线 | 99精品国产在热久久下载 | 丁香视频 | 九九免费在线观看视频 | 97精品国产97久久久久久久久久久久 | 狠狠躁夜夜躁人人爽超碰97香蕉 | 97在线观视频免费观看 | 99精品视频在线观看免费 | 久草在线观看 | 国产精品99页 | 中字幕视频在线永久在线观看免费 | 日本精品视频免费 | 欧美成人在线免费观看 | 就色干综合 | 最近高清中文在线字幕在线观看 | 最近中文字幕免费观看 | 91丨九色丨91啦蝌蚪老版 | 日韩成人免费在线 | 天天色天天 | 青青草国产精品视频 | 欧美国产日韩一区 | 国产男女爽爽爽免费视频 | av在线电影免费观看 | 开心色插 | 国产精品免费不卡 | 伊人天堂av | 中文字幕在线视频一区二区 | 最近免费中文字幕mv在线视频3 | 99精品免费在线观看 | 丁香资源影视免费观看 | 九月婷婷综合网 | 久久福利综合 | 91免费观看 | 日日干日日操 | 黄色大片免费网站 | 在线 欧美 日韩 | 日韩专区一区二区 | 亚洲精品动漫在线 | 亚洲精品一区二区三区四区高清 | 婷婷激情在线 | a资源在线 | 欧美一级乱黄 | 激情五月***国产精品 | 天天操天天射天天 | 精品国产大片 | 国际av在线 | 久久精品国产99 | 国产最新网站 | 久久在线免费 | 九九九热视频 | 久久精国产| 色久网| 日韩免费网站 | 亚洲精品美女在线观看播放 | 中文字幕亚洲在线观看 | www黄色大片 | 97操碰| 国产 欧美 日产久久 | 狠狠躁夜夜躁人人爽超碰97香蕉 | 久久黄色美女 | 中文字幕日韩在线播放 | avv天堂| 久草在线在线 | 国产资源在线视频 | 亚洲精选99 | 狠狠干婷婷 | 久久96国产精品久久99软件 | 国产很黄很色的视频 | 日本中文字幕在线播放 | 91av原创 | 在线之家免费在线观看电影 | 久久婷婷精品 | 久久综合久久综合这里只有精品 | 91精品久久久久久久久久久久久 | 国产日产亚洲精华av | 三级av免费 | 久草在线手机视频 | 国产日韩欧美自拍 | 欧美精品久久久久久久久久久 | 日韩久久精品一区二区 | 99精品欧美一区二区 | 国产片免费在线观看视频 | 日本99干网 | 日韩r级电影在线观看 | 久久久久久美女 | 久青草视频在线观看 | 国产亚洲欧美日韩高清 | www色com| 国产亚洲精品久久久久5区 成人h电影在线观看 | 久久国产热视频 | 国产中文字幕一区二区三区 | 亚a在线 | 狠狠躁夜夜躁人人爽超碰97香蕉 | 视频成人免费 | 欧美日韩久久不卡 | 狠狠操狠狠干2017 | 免费在线观看视频a | 天天曰夜夜操 | 91九色免费视频 | 亚洲伦理中文字幕 | 91精品久久久久 | 欧美日韩电影在线播放 | 久久久久久免费网 | 国产精品高清在线 | 日韩美av在线 | 国产高清在线一区 | 亚洲精品男人的天堂 | 99精品视频在线观看播放 | 久久99精品国产一区二区三区 | 亚洲一级片av| 在线观看黄av | 在线日韩av | 中文字幕美女免费在线 | 涩涩网站在线观看 | 国产美女主播精品一区二区三区 | 国产精品网站一区二区三区 | 韩国精品视频在线观看 | 亚洲久草网| 久久久福利影院 | 久久婷婷五月综合色丁香 | 国产精品免费观看在线 | 欧美成人tv | 久久久久国产一区二区三区四区 | 婷婷av网站| 久久96国产精品久久99软件 | 美女网站久久 | 91久久久久久久一区二区 | av在线观| 中文区中文字幕免费看 | www.亚洲精品视频 | av资源在线观看 | 国产精品久久久久免费观看 | 久久国产精品免费一区二区三区 | 久久国产区 | av网站有哪些 | 国产精品岛国久久久久久久久红粉 | 国产自在线 | 永久免费精品视频网站 | 欧美日韩综合在线观看 | 一区二区精品在线视频 | 日韩国产欧美在线视频 | 欧美一级性生活 | 91福利视频网站 | 在线精品一区二区 | 日韩,精品电影 | 97视频在线观看成人 | 久久日韩精品 | 欧美日韩一区二区三区免费视频 | 色吊丝在线永久观看最新版本 | 最近日本中文字幕a | 久久精品网| 亚洲不卡123 | 久久精品黄 | 波多野结衣在线观看一区二区三区 | 国产在线黄 | 国产精品女主播一区二区三区 | av中文字幕电影 | 久草免费看 | 久久在线观看 | 99久久日韩精品免费热麻豆美女 | 日韩一区正在播放 | 国产精品黄色影片导航在线观看 | 精品久久免费 | 久久精品视频网站 | 六月激情丁香 | 懂色av懂色av粉嫩av分享吧 | 91女人18片女毛片60分钟 | 免费欧美精品 | 国产精品亚洲综合久久 | 国产美女精品 | 亚洲精品激情 | 午夜性盈盈| 丁香六月婷 | 丁香六月av | 六月色婷| 久久69精品| 久久精品欧美一 | 香蕉视频亚洲 | 精品国产91亚洲一区二区三区www | 少妇bbb搡bbbb搡bbbb | 国产精品久久久久9999 | 亚洲精品日韩一区二区电影 | 日韩婷婷 | 亚洲 成人 欧美 | 成人av电影在线 | 国产成人精品一区二 | 在线播放视频一区 | 色吊丝在线永久观看最新版本 | 麻豆免费精品视频 | .国产精品成人自产拍在线观看6 | 精品96久久久久久中文字幕无 | 久久久免费播放 | 九草在线视频 | 亚洲精品www. | 久久久久电影 | 国产视频在线免费观看 | 精品久久在线 | 激情网五月婷婷 | 久久成人一区二区 | 特级西西444www高清大视频 | 国产91精品一区二区麻豆亚洲 | 色视频在线免费观看 | 国产精品对白一区二区三区 | 天天操天天干天天玩 | 毛片888| 久久精品国产成人 | 欧美淫aaa免费观看 日韩激情免费视频 | 小草av在线播放 | 蜜臀久久99精品久久久久久网站 | 91欧美日韩国产 | 免费看国产一级片 | 69国产精品视频免费观看 | 91av在线播放| 中文字幕一区二区三区精华液 | 国产a级片免费观看 | www日日 | 97精品国产91久久久久久 | 欧美一级艳片视频免费观看 | 色五丁香 | 日韩免费高清在线 | 一区二区精品久久 | 国产青青青 | 粉嫩一区二区三区粉嫩91 | 日韩欧美在线第一页 | 制服丝袜在线91 | 干天天 | 成人免费精品 | 精品在线看 | 九色porny真实丨国产18 | 91av综合| 97在线视频免费播放 | 国产成人三级一区二区在线观看一 | 日韩视频一区二区三区在线播放免费观看 | 欧美日韩中文字幕综合视频 | 久久精品国产第一区二区三区 | 国产资源精品在线观看 | 欧美无极色 | 欧美另类交在线观看 | 日本公乱妇视频 | 国产精品毛片一区视频播 | 国产精品电影在线 | 手机av在线网站 | 国产一二区精品 | 亚洲国产中文字幕在线 | 欧美日韩大片在线观看 | 中文字幕国语官网在线视频 | 久久免费视频8 | 亚洲国产中文字幕在线观看 | 欧美久久久久久久久久久 | 国产精品久久久久久久免费 | 久久精品免视看 | 成人精品久久久 | 欧美日韩精品在线观看视频 | 久久成人高清 | 亚洲国产精品va在线 | 97视频入口免费观看 | 国产美女视频免费 | 伊人www22综合色| 在线观看一区 | 久久视频这里有精品 | 久青草电影 | 欧美日本国产在线观看 | 青草视频在线播放 | 欧美激情另类 | 在线va网站 | 亚洲欧美国产精品久久久久 | 最新日韩中文字幕 | 欧美亚洲成人免费 | www黄色大片 | 日日夜夜狠狠干 | 婷婷六月色 | 亚州精品天堂中文字幕 | 欧美整片sss | 在线看岛国av | 久久精品高清视频 | 中文字幕黄色av | 天天干夜夜夜操天 | 久久综合亚洲鲁鲁五月久久 | 亚洲最新视频在线 | 免费精品人在线二线三线 | 久久香蕉电影 | 中文字幕在线高清 | 天堂av免费 | 日韩免费电影 | 日韩精品一区二区三区不卡 | 日韩精品一区二区在线视频 | 中国一级片免费看 | av免费在线免费观看 | 久久这里有精品 | 日韩理论电影在线 | 蜜臀av性久久久久蜜臀aⅴ涩爱 | 在线观看国产麻豆 | 成人午夜影视 | 激情开心色| 福利av在线| 成人黄色电影在线观看 | 久久久国产高清 | 精品伊人久久久 | 亚洲日本欧美在线 | 五月开心婷婷 | 97人人澡人人爽人人模亚洲 | 日韩精品久久久久 | 午夜精品久久久99热福利 | 国产在线a视频 | 在线看一区 | 欧美另类xxx | 91成人精品视频 | 国产精品视频免费看 | 日韩欧美亚州 | av成年人电影 | 色网站在线免费 | 热久久免费视频精品 | 国产经典av| 激情网婷婷 | 色综合久久天天 | 美女免费视频观看网站 | 天天天综合 | 国内视频在线观看 | 黄污网| 久久成人国产精品入口 | 91亚洲精品久久久蜜桃借种 | 国产精品久久一区二区三区, | 欧美日韩一区二区在线 | 午夜av免费观看 | 国产黄色av影视 | 亚洲日本欧美在线 | 蜜桃视频日韩 | 精品1区2区3区 | 欧美日韩裸体免费视频 | 久久免费精品 | 中文字幕av有码 | 免费av福利| 国产精品久久久久aaaa九色 | 欧美色图东方 | 狠狠操操网 | 深爱激情五月婷婷 | 中文字幕888| 我要看黄色一级片 | 人人添人人澡人人澡人人人爽 | 久久久在线免费观看 | 韩国av三级| 狠狠干综合| 九色porny真实丨国产18 | av电影免费在线看 | av高清影院 | 亚洲国产成人高清精品 | 精精国产xxxx视频在线播放 | 国产精品永久在线观看 | 黄污网站在线 | 黄色av电影网 | 亚洲情感电影大片 | 日韩欧美有码在线 | av一本久道久久波多野结衣 | av免费福利 | 亚洲精品999| 国产高h视频 | 最新国产精品久久精品 | 国产精品女教师 | 超碰在线最新网址 | 91精品视频一区二区三区 | 国产一区欧美二区 | 国产五月色婷婷六月丁香视频 | 精品国产一区二区三区不卡 | 国产久草在线观看 | 亚洲午夜久久久久久久久电影网 | 日韩v欧美v日本v亚洲v国产v | 免费国产一区二区视频 | 国产九九九精品视频 | 亚洲最新av网站 | 免费三级黄色片 | 欧美在线观看视频一区二区 | 色婷久久 | 波多野结衣一区 | 日本爽妇网 | 国产又粗又猛又黄又爽视频 | 欧美 日韩精品 | 激情 亚洲| 亚洲成免费 | 午夜视频99 | 成人免费xxx在线观看 | 五月婷婷久久综合 | 18国产精品白浆在线观看免费 | 丁香色婷 | 国产精品久久久亚洲 | 国语自产偷拍精品视频偷 | 婷婷草 | 久久99精品国产91久久来源 | 91免费版在线观看 | 国产精品久久久久久久久大全 | 91精品国产福利 | 奇米网444| 国产精品国产自产拍高清av | 国产做a爱一级久久 | 久久无码精品一区二区三区 | 97国产大学生情侣白嫩酒店 | 亚洲成人一区 | www.在线观看视频 | 区一区二区三区中文字幕 | 在线观看免费一级片 | 国产一级在线播放 | 91精品国产92久久久久 | 亚洲精品在线一区二区三区 | 国产成人精品综合 | 欧美日韩p片| 中文字幕精品三级久久久 | 最新成人在线 | 亚洲天堂网在线观看视频 | 久久视频在线观看免费 | 久久精品视频3 | 特级黄色视频毛片 | 久久久久久美女 | 欧美老女人xx | 九九热免费视频在线观看 | 午夜视频色 | 精品亚洲免费视频 | 欧美成人高清 | 在线成人高清电影 | 国产精品粉嫩 | 精品国产欧美一区二区三区不卡 | 免费观看完整版无人区 | 在线一区二区三区 | 亚洲精品黄色 | 欧美资源在线观看 | 亚洲免费婷婷 | 欧美福利网址 | 手机在线观看国产精品 | 日韩天天操 | 国产免费观看av | 久久国产区 | 91精品一区二区三区久久久久久 | 国产成人精品日本亚洲999 | 久久er99热精品一区二区 | 国产精品1区2区在线观看 | 婷婷国产在线观看 | www九九热 | 国产精品一区二区三区免费看 | 亚洲最大免费成人网 | 91精品婷婷国产综合久久蝌蚪 | 天天干天天草 | 欧美色道| 久久久久久国产精品 | www.五月激情.com | 久久久久国产精品一区 | 99精品国产在热久久下载 | 午夜视频久久久 | 中文字幕在线观看一区二区三区 | 99久久999久久久精玫瑰 | 成人免费视频播放 | 国产91小视频| 久久亚洲私人国产精品va | 免费看的黄色小视频 | 国产精品成久久久久 | 久久久久成人免费 | 国产精品一区二区免费 | 中文字幕在线日本 | 日韩欧美专区 | 91视频com| 国产精品久久久久久久久搜平片 | 久99久在线视频 | 午夜私人影院久久久久 | 国产伦理剧 | h视频在线看 | 亚洲精品在线观看视频 | 成人h视频在线 | 久久麻豆视频 | 国产黄色成人 | 国产午夜精品视频 | 精品国内自产拍在线观看视频 | 蜜桃视频日本 | 日日综合 | www.亚洲精品 | 欧美在线观看视频一区二区 | 日韩免费电影一区二区三区 | 亚洲人天堂 | 激情久久婷婷 | 国内精品中文字幕 | 国产91学生粉嫩喷水 | 精品你懂的 | 久久精品免费观看 | 国产不卡高清 | 国产伦精品一区二区三区高清 | 久久综合免费视频影院 | 日韩一区二区久久 | 亚洲欧美经典 | 亚洲国产中文在线 | 成人在线观看日韩 | 久久精品一二三区白丝高潮 | 日韩高清在线一区二区三区 | 婷婷亚洲综合 | 国产资源网 | 成人午夜网 | 91麻豆国产福利在线观看 | 久久精品三| 久久人人添人人爽添人人88v | 久精品视频在线观看 | 色久网 | 激情视频一区二区 | 欧美99热| 色综合在 | 国产成人精品一区二区在线 | 激情婷婷亚洲 | 在线超碰av | 在线观看成人小视频 | 日本特黄一级 | 久操伊人 | 97手机电影网 | 九九免费视频 | 亚洲精品小视频 | 岛国片在线 | 精品免费一区二区三区 | 久久久久电影 | 天天射天天干天天 | 狠狠色噜噜狠狠狠狠2022 | 欧美一区二区三区免费看 | 五月婷婷一级片 |