日韩av黄I国产麻豆传媒I国产91av视频在线观看I日韩一区二区三区在线看I美女国产在线I麻豆视频国产在线观看I成人黄色短片

歡迎訪問 生活随笔!

生活随笔

當前位置: 首頁 > 编程资源 > 综合教程 >内容正文

综合教程

HiveSQL 数据定义语言(DDL)

發(fā)布時間:2023/12/15 综合教程 62 生活家
生活随笔 收集整理的這篇文章主要介紹了 HiveSQL 数据定义语言(DDL) 小編覺得挺不錯的,現(xiàn)在分享給大家,幫大家做個參考.

第一章、數(shù)據(jù)定義語言(DDL)概述

1.1 DDL語法的作用

數(shù)據(jù)定義語言 (Data Definition Language, DDL),是SQL語言集中對數(shù)據(jù)庫內部的對象結構進行創(chuàng)建,刪除,修改等的操作語言,這些數(shù)據(jù)庫對象包括database(schema)、table、view、index等。核心語法由CREATEALTER與DROP三個所組成。DDL并不涉及表內部數(shù)據(jù)的操作。
在某些上下文中,該術語也稱為數(shù)據(jù)描述語言,因為它描述了數(shù)據(jù)庫表中的字段和記錄。

1.2 Hive中DDL使用

Hive SQL(HQL)與SQL的語法大同小異,基本上是相通的,學過SQL的使用者可以無痛使用Hive SQL。只不過在學習HQL語法的時候,特別要注意Hive自己特有的語法知識點,比如partition相關的DDL操作。

基于Hive的設計、使用特點,HQL中create語法(尤其create table)將是學習掌握DDL語法的重中之重。可以說建表是否成功直接影響數(shù)據(jù)文件是否映射成功,進而影響后續(xù)是否可以基于SQL分析數(shù)據(jù)。通俗點說,沒有表,表沒有數(shù)據(jù),你分析什么呢?

選擇正確的方向,往往比盲目努力重要。

第二章、Hive DDL建表基礎

2.1 完整建表語法樹

藍色字體是建表語法的關鍵字,用于指定某些功能。
[]中括號的語法表示可選。
|表示使用的時候,左右語法二選一。
建表語句中的語法順序要和上述語法規(guī)則保持一致。

2.2 Hive數(shù)據(jù)類型詳解

整體概述

Hive中的數(shù)據(jù)類型指的是Hive表中的列字段類型。Hive數(shù)據(jù)類型整體分為兩個類別:原生數(shù)據(jù)類型(primitive data type)復雜數(shù)據(jù)類型(complex data type)
原生數(shù)據(jù)類型包括:數(shù)值類型、時間類型、字符串類型、雜項數(shù)據(jù)類型;
復雜數(shù)據(jù)類型包括:array數(shù)組、map映射、struct結構、union聯(lián)合體。

關于Hive的數(shù)據(jù)類型,需要注意:

英文字母大小寫不敏感;
除SQL數(shù)據(jù)類型外,還支持Java數(shù)據(jù)類型,比如:string;
int和string是使用最多的,大多數(shù)函數(shù)都支持;
復雜數(shù)據(jù)類型的使用通常需要和分隔符指定語法配合使用。
如果定義的數(shù)據(jù)類型和文件不一致,hive會嘗試隱式轉換,但是不保證成功。

原生數(shù)據(jù)類型

Hive支持的原生數(shù)據(jù)類型如下圖所示:

其中標注的數(shù)據(jù)類型是使用較多的,詳細的描述請查詢語法手冊:
https://cwiki.apache.org/confluence/display/Hive/LanguageManual+Types

復雜數(shù)據(jù)類型

Hive支持的復雜數(shù)據(jù)類型如下圖所示:

其中標注的數(shù)據(jù)類型是使用較多的,詳細的描述請查詢語法手冊:
https://cwiki.apache.org/confluence/display/Hive/LanguageManual+Types

數(shù)據(jù)類型隱式、顯示轉換

與SQL類似,HQL支持隱式和顯式類型轉換。
原生類型從窄類型到寬類型的轉換稱為隱式轉換,反之,則不允許。
下表描述了類型之間允許的隱式轉換:

https://cwiki.apache.org/confluence/display/Hive/LanguageManual+Types
顯式類型轉換使用CAST函數(shù)。
例如,CAST('100'as INT)會將100字符串轉換為100整數(shù)值。 如果強制轉換失敗,例如CAST('INT'as INT),該函數(shù)返回NULL。

2.3 Hive讀寫文件機制

SerDe是什么

SerDe是SerializerDeserializer的簡稱,目的是用于序列化和反序列化。序列化是對象轉化為字節(jié)碼的過程;而反序列化是字節(jié)碼轉換為對象的過程。
Hive使用SerDe(和FileFormat)讀取和寫入行對象。

需要注意的是,“key”部分在讀取時會被忽略,而在寫入時key始終是常數(shù)。基本上行對象存儲在“value”中
可以通過desc formatted tablename查看表的相關SerDe信息。默認如下:

Hive讀寫文件流程

Hive讀取文件機制:首先調用InputFormat(默認TextInputFormat),返回一條一條kv鍵值對記錄(默認是一行對應一條記錄)。然后調用SerDe(默認LazySimpleSerDe)的Deserializer,將一條記錄中的value根據(jù)分隔符切分為各個字段。

Hive寫文件機制:將Row寫入文件時,首先調用SerDe(默認LazySimpleSerDe)的Serializer將對象轉換成字節(jié)序列,然后調用OutputFormat將數(shù)據(jù)寫入HDFS文件中。

SerDe相關語法

在Hive的建表語句中,和SerDe相關的語法為:

其中ROW FORMAT是語法關鍵字,DELIMITED和SERDE二選其一。

如果使用delimited表示使用默認的LazySimpleSerDe類來處理數(shù)據(jù)。如果數(shù)據(jù)文件格式比較特殊可以使用ROW FORMAT SERDE serde_name指定其他的Serde類來處理數(shù)據(jù),甚至支持用戶自定義SerDe類。

LazySimpleSerDe分隔符指定

LazySimpleSerDe是Hive默認的序列化類,包含4種子語法,分別用于指定字段之間集合元素之間map映射 kv之間換行的分隔符號。在建表的時候可以根據(jù)數(shù)據(jù)的特點靈活搭配使用。

默認分隔符

hive建表時如果沒有row format語法。此時字段之間默認的分割符是'\001',是一種特殊的字符,使用的是ascii編碼的值,鍵盤是打不出來的。

在vim編輯器中,連續(xù)按下Ctrl+v/Ctrl+a即可輸入'\001' ,顯示^A

在一些文本編輯器中將以SOH的形式顯示:

2.4 Hive數(shù)據(jù)存儲路徑

默認存儲路徑

Hive表默認存儲路徑是由${HIVE_HOME}/conf/hive-site.xml配置文件的hive.metastore.warehouse.dir屬性指定。默認值是:/user/hive/warehouse。

在該路徑下,文件將根據(jù)所屬的庫、表,有規(guī)律的存儲在對應的文件夾下。

指定存儲路徑

在Hive建表的時候,可以通過location語法來更改數(shù)據(jù)在HDFS上的存儲路徑,使得建表加載數(shù)據(jù)更加靈活方便。
語法:LOCATION'<hdfs_location>'。
對于已經(jīng)生成好的數(shù)據(jù)文件,使用location指定路徑將會很方便。

3.5 案例—王者榮耀

原生數(shù)據(jù)類型案例

文件archer.txt中記錄了手游《王者榮耀》射手的相關信息,內容如下所示,其中字段之間分隔符為制表符\t,要求在Hive中建表映射成功該文件。

1    后羿    5986    1784    396    336    remotely    archer
2    馬可波羅    5584    200    362    344    remotely    archer
3    魯班七號    5989    1756    400    323    remotely    archer
4    李元芳    5725    1770    396    340    remotely    archer
5    孫尚香    6014    1756    411    346    remotely    archer
6    黃忠    5898    1784    403    319    remotely    archer
7    狄仁杰    5710    1770    376    338    remotely    archer
8    虞姬    5669    1770    407    329    remotely    archer
9    成吉思汗    5799    1742    394    329    remotely    archer
10    百里守約    5611    1784    410    329    remotely    archer

字段含義:id、name(英雄名稱)、hp_max(最大生命)、mp_max(最大法力)、attack_max(最高物攻)、defense_max(最大物防)、attack_range(攻擊范圍)、role_main(主要定位)、role_assist(次要定位)。

分析一下:字段都是基本類型,字段的順序需要注意一下。字段之間的分隔符是制表符,需要使用row format語法進行指定。

建表語句:

--創(chuàng)建數(shù)據(jù)庫并切換使用
create database itcast;
use itcast;

--ddl create table
create table t_archer(
    id int comment "ID",
    name string comment "英雄名稱",
    hp_max int comment "最大生命",
    mp_max int comment "最大法力",
    attack_max int comment "最高物攻",
    defense_max int comment "最大物防",
    attack_range string comment "攻擊范圍",
    role_main string comment "主要定位",
    role_assist string comment "次要定位"
) comment "王者榮耀射手信息"
row format delimited fields terminated by "\t";

建表成功之后,在Hive的默認存儲路徑下就生成了表對應的文件夾,把archer.txt文件上傳到對應的表文件夾下。

hadoop fs -put archer.txt  /user/hive/warehouse/honor_of_kings.db/t_archer

執(zhí)行查詢操作,可以看出數(shù)據(jù)已經(jīng)映射成功。

想一想:Hive這種能力是不是比mysql一條一條insert插入數(shù)據(jù)方便多了?

復雜數(shù)據(jù)類型案例

文件hot_hero_skin_price.txt中記錄了手游《王者榮耀》熱門英雄的相關皮膚價格信息,內容如下,要求在Hive中建表映射成功該文件。

1,孫悟空,53,西部大鏢客:288-大圣娶親:888-全息碎片:0-至尊寶:888-地獄火:1688
2,魯班七號,54,木偶奇遇記:288-福祿兄弟:288-黑桃隊長:60-電玩小子:2288-星空夢想:0
3,后裔,53,精靈王:288-阿爾法小隊:588-輝光之辰:888-黃金射手座:1688-如夢令:1314
4,鎧,52,龍域領主:288-曙光守護者:1776
5,韓信,52,飛衡:1788-逐夢之影:888-白龍吟:1188-教廷特使:0-街頭霸王:888

字段:id、name(英雄名稱)、win_rate(勝率)、skin_price(皮膚及價格)
分析一下:前3個字段原生數(shù)據(jù)類型、最后一個字段復雜類型map。需要指定字段之間分隔符、集合元素之間分隔符、map kv之間分隔符。
建表語句:

create table t_hot_hero_skin_price(
    id int,
    name string,
    win_rate int,
    skin_price map<string,int>
)row format delimited
fields terminated by ',' --指定字段之間分隔符
collection items terminated by '-' --指定集合元素之間的分隔符
map keys terminated by ':' ;---指定map元素kv之間的分隔符

建表成功后,把hot_hero_skin_price.txt文件上傳到對應的表文件夾下。

hadoop fs -put hot_hero_skin_price.txt /user/hive/warehouse/honor_of_kings.db/t_hot_hero_skin_price

執(zhí)行查詢操作,可以看出數(shù)據(jù)已經(jīng)映射成功。

想一想:如果最后一個字段以String類型來定義,后續(xù)使用方便嗎?

默認分隔符案例

文件team_ace_player.txt中記錄了手游《王者榮耀》主要戰(zhàn)隊內最受歡迎的王牌選手信息,內容如下,要求在Hive中建表映射成功該文件。

字段:id、team_name(戰(zhàn)隊名稱)、ace_player_name(王牌選手名字)
分析一下:數(shù)據(jù)都是原生數(shù)據(jù)類型,且字段之間分隔符是\001,因此在建表的時候可以省去row format語句,因為hive默認的分隔符就是\001。
建表語句:

create table t_team_ace_player(
    id int,
    team_name string,
    ace_player_name string
); --沒有指定row format語句 此時采用的是默認的\001作為字段的分隔符

建表成功后,把team_ace_player.txt文件上傳到對應的表文件夾下。

hadoop fs -put team_ace_player.txt /user/hive/warehouse/honor_of_kings.db/t_team_ace_player

執(zhí)行查詢操作,可以看出數(shù)據(jù)已經(jīng)映射成功。

想一想:字段以\001分隔建表時很方便,那么采集、清洗數(shù)據(jù)時對數(shù)據(jù)格式追求有什么啟發(fā)?你青睞于什么分隔符?

優(yōu)先考慮\001分隔符

指定數(shù)據(jù)存儲路徑

文件team_ace_player.txt中記錄了手游《王者榮耀》主要戰(zhàn)隊內最受歡迎的王牌選手信息,字段之間使用的是\001作為分隔符。
要求把文件上傳到HDFS任意路徑下,不能移動復制,并在Hive中建表映射成功該文件。
建表語句

create table t_team_ace_player(
    id int,
    team_name string,
    ace_player_name string
)location '/tmp';--使用location關鍵字指定本張表數(shù)據(jù)在hdfs上的存儲路徑

第三章、Hive DDL建表高階

3.1 Hive內、外部表

內部表

內部表(Internal table)也稱為被Hive擁有和管理的托管表(Managed table)。默認情況下創(chuàng)建的表就是內部表,Hive擁有該表的結構和文件。換句話說,Hive完全管理表(元數(shù)據(jù)和數(shù)據(jù))的生命周期,類似于RDBMS(關系型數(shù)據(jù)庫)中的表。

當您刪除內部表時,它會刪除數(shù)據(jù)以及表的元數(shù)據(jù)。

create table student(
    num int,
    name string,
    sex string,
    age int,
    dept string)
row format delimited
fields terminated by ',';

可以使用DESCRIBE FORMATTED itcast.student;來獲取表的描述信息,從中可以看出表的類型。

外部表

外部表(External table)中的數(shù)據(jù)不是Hive擁有或管理的,只管理表元數(shù)據(jù)的生命周期。要創(chuàng)建一個外部表,需要使用EXTERNAL語法關鍵字。

刪除外部表只會刪除元數(shù)據(jù),而不會刪除實際數(shù)據(jù)。在Hive外部仍然可以訪問實際數(shù)據(jù)。

而且外部表更為方便的是可以搭配location語法指定數(shù)據(jù)的路徑。

create external table student_ext(
    num int,
    name string,
    sex string,
    age int,
    dept string)
row format delimited
fields terminated by ','
location '/stu';

可以使用DESC FORMATTED itcast. student_ext;來獲取表的描述信息,從中可以看出表的類型。

內部表、外部表差異

無論內部表還是外部表,Hive都在Hive Metastore中管理表定義及其分區(qū)信息。

刪除內部表會從Metastore中刪除表元數(shù)據(jù),還會從HDFS中刪除其所有數(shù)據(jù)/文件。
刪除外部表,只會從Metastore中刪除表的元數(shù)據(jù),并保持HDFS位置中的實際數(shù)據(jù)不變。

如何選擇內部表、外部表

當需要通過Hive完全管理控制表的整個生命周期時,請使用內部表。
當文件已經(jīng)存在或位于遠程位置時,請使用外部表,因為即使刪除表,文件也會被保留。

Location關鍵字

在創(chuàng)建外部表的時候,可以使用location指定存儲位置路徑,如果不指定會如何?

如果不指定location,外部表的默認路徑也是位于/user/hive/warehouse,由默認參數(shù)控制。

創(chuàng)建內部表的時候,是否可以使用location指定?

內部表可以使用location指定位置的。

是否意味著Hive表的數(shù)據(jù)在HDFS上的位置不是一定要在/user/hive/warehouse下?

不一定,Hive中表數(shù)據(jù)存儲位置,不管內部表還是外部表,默認都是在/user/hive/warehouse,當然可以在建表的時候通過location關鍵字指定存儲位置在HDFS的任意路徑。

3.2 Hive分區(qū)表

2.1.分區(qū)表的引入、產(chǎn)生背景
現(xiàn)有6份數(shù)據(jù)文件,分別記錄了《王者榮耀》中6種位置的英雄相關信息。現(xiàn)要求通過建立一張表t_all_hero,把6份文件同時映射加載。

create table t_all_hero(
    id int,
    name string,
    hp_max int,
    mp_max int,
    attack_max int,
    defense_max int,
    attack_range string,
    role_main string,
    role_assist string
)
row format delimited
fields terminated by "\t";

加載數(shù)據(jù)文件到HDFS指定路徑下:

hadoop fs -put archer.txt assassin.txt mage.txt  support.txt  tank.txt  warrior.txt /user/hive/warehouse/itcast.db/t_all_hero

現(xiàn)要求查詢role_main主要定位是射手并且hp_max最大生命大于6000的有幾個,sql語句如下:

select count(*) from t_all_hero where role_main="archer" and hp_max >6000;

思考一下:where語句的背后需要進行全表掃描才能過濾出結果,對于hive來說需要掃描表下面的每一個文件。如果數(shù)據(jù)文件特別多的話,效率很慢也沒必要。本需求中,只需要掃描archer.txt文件即可,如何優(yōu)化可以加快查詢,減少全表掃描呢?

分區(qū)表的概念、創(chuàng)建

當Hive表對應的數(shù)據(jù)量大、文件多時,為了避免查詢時全表掃描數(shù)據(jù),Hive支持根據(jù)用戶指定的字段進行分區(qū),分區(qū)的字段可以是日期、地域、種類等具有標識意義的字段。比如把一整年的數(shù)據(jù)根據(jù)月份劃分12個月(12個分區(qū)),后續(xù)就可以查詢指定月份分區(qū)的數(shù)據(jù),盡可能避免了全表掃描查詢。

分區(qū)表建表語法:

CREATE TABLE table_name (column1 data_type, column2 data_type) PARTITIONED BY (partition1 data_type, partition2 data_type,….);

針對《王者榮耀》英雄數(shù)據(jù),重新創(chuàng)建一張分區(qū)表t_all_hero_part,以role角色作為分區(qū)字段。

create table t_all_hero_part(
       id int,
       name string,
       hp_max int,
       mp_max int,
       attack_max int,
       defense_max int,
       attack_range string,
       role_main string,
       role_assist string
) partitioned by (role string)
row format delimited
fields terminated by "\t";

需要注意:分區(qū)字段不能是表中已經(jīng)存在的字段,因為分區(qū)字段最終也會以虛擬字段的形式顯示在表結構上。

分區(qū)表數(shù)據(jù)加載--靜態(tài)分區(qū)

所謂靜態(tài)分區(qū)指的是分區(qū)的字段值是由用戶在加載數(shù)據(jù)的時候手動指定的。
語法如下:

load data [local] inpath ' ' into table tablename partition(分區(qū)字段='分區(qū)值'...);

Local表示數(shù)據(jù)是位于本地文件系統(tǒng)還是HDFS文件系統(tǒng)。關于load語句后續(xù)詳細展開講解。
靜態(tài)加載數(shù)據(jù)操作如下,文件都位于Hive服務器所在機器本地文件系統(tǒng)上。

load data local inpath '/opt/module/hive/archer.txt' into table t_all_hero_part partition(role='sheshou');
load data local inpath '/opt/module/hive/assassin.txt' into table t_all_hero_part partition(role='cike');
load data local inpath '/opt/module/hive/mage.txt' into table t_all_hero_part partition(role='fashi');
load data local inpath '/opt/module/hive/support.txt' into table t_all_hero_part partition(role='fuzhu');
load data local inpath '/opt/module/hive/tank.txt' into table t_all_hero_part partition(role='tanke');
load data local inpath '/opt/module/hive/warrior.txt' into table t_all_hero_part partition(role='zhanshi');

分區(qū)掃描:

select count(*) from t_all_hero_part where role="archer" and hp_max >6000

分區(qū)表數(shù)據(jù)加載--動態(tài)分區(qū)

往hive分區(qū)表中插入加載數(shù)據(jù)時,如果需要創(chuàng)建的分區(qū)很多,則需要復制粘貼修改很多sql去執(zhí)行,效率低。因為hive是批處理系統(tǒng),所以hive提供了一個動態(tài)分區(qū)功能,其可以基于查詢參數(shù)的位置去推斷分區(qū)的名稱,從而建立分區(qū)。

所謂動態(tài)分區(qū)指的是分區(qū)的字段值是基于查詢結果自動推斷出來的。核心語法就是insert+select。

啟用hive動態(tài)分區(qū),需要在hive會話中設置兩個參數(shù):

set hive.exec.dynamic.partition=true;
set hive.exec.dynamic.partition.mode=nonstrict;

第一個參數(shù)表示開啟動態(tài)分區(qū)功能,第二個參數(shù)指定動態(tài)分區(qū)的模式。分為nonstick非嚴格模式和strict嚴格模式。strict嚴格模式要求至少有一個分區(qū)為靜態(tài)分區(qū)。
創(chuàng)建一張新的分區(qū)表t_all_hero_part_dynamic

create table t_all_hero_part_dynamic(
         id int,
         name string,
         hp_max int,
         mp_max int,
         attack_max int,
         defense_max int,
         attack_range string,
         role_main string,
         role_assist string
) partitioned by (role string)
row format delimited
fields terminated by "\t";

執(zhí)行動態(tài)分區(qū)插入(從原有的t_all_hero表中導入)

insert into table t_all_hero_part_dynamic partition(role) --注意這里 分區(qū)值并沒有手動寫死指定
select tmp.*,tmp.role_main from t_all_hero tmp;

動態(tài)分區(qū)插入時,分區(qū)值是根據(jù)查詢返回字段位置自動推斷的。

select * from t_all_hero_part_dynamic;

分區(qū)表的本質

外表上看起來分區(qū)表好像沒多大變化,只不過多了一個分區(qū)字段。實際上在底層管理數(shù)據(jù)的方式發(fā)生了改變。這里直接去HDFS查看區(qū)別。
非分區(qū)表:t_all_hero

分區(qū)表:t_all_hero_part

分區(qū)的概念提供了一種將Hive表數(shù)據(jù)分離為多個文件/目錄的方法。不同分區(qū)對應著不同的文件夾,同一分區(qū)的數(shù)據(jù)存儲在同一個文件夾下。只需要根據(jù)分區(qū)值找到對應的文件夾,掃描本分區(qū)下的文件即可,避免全表數(shù)據(jù)掃描。

分區(qū)表的使用

分區(qū)表的使用重點在于:

一、建表時根據(jù)業(yè)務場景設置合適的分區(qū)字段。比如日期、地域、類別等;

二、查詢的時候盡量先使用where進行分區(qū)過濾,查詢指定分區(qū)的數(shù)據(jù),避免全表掃描。

比如:查詢英雄主要定位是射手并且最大生命大于6000的個數(shù)。使用分區(qū)表查詢和使用非分區(qū)表進行查詢,SQL如下:

--非分區(qū)表 全表掃描過濾查詢
select count(*) from t_all_hero where role_main="archer" and hp_max >6000;
--分區(qū)表 先基于分區(qū)過濾 再查詢
select count(*) from t_all_hero_part where role="sheshou" and hp_max >6000;

想一想:底層執(zhí)行性能來說,分區(qū)表的優(yōu)勢在哪里?

分區(qū)表的注意事項

一、分區(qū)表不是建表的必要語法規(guī)則,是一種優(yōu)化手段表,可選;
二、分區(qū)字段不能是表中已有的字段,不能重復;
三、分區(qū)字段是虛擬字段,其數(shù)據(jù)并不存儲在底層的文件中;
四、分區(qū)字段值的確定來自于用戶價值數(shù)據(jù)手動指定(靜態(tài)分區(qū))或者根據(jù)查詢結果位置自動推斷(動態(tài)分區(qū))
五、Hive支持多重分區(qū),也就是說在分區(qū)的基礎上繼續(xù)分區(qū),劃分更加細粒度

多重分區(qū)表

通過建表語句中關于分區(qū)的相關語法可以發(fā)現(xiàn),Hive支持多個分區(qū)字段:PARTITIONED BY (partition1 data_type, partition2 data_type,….)。

多重分區(qū)下,分區(qū)之間是一種遞進關系,可以理解為在前一個分區(qū)的基礎上繼續(xù)分區(qū)。從HDFS的角度來看就是文件夾下繼續(xù)劃分子文件夾。比如:把全國人口數(shù)據(jù)首先根據(jù)省進行分區(qū),然后根據(jù)市進行劃分,如果你需要甚至可以繼續(xù)根據(jù)區(qū)縣再劃分,此時就是3分區(qū)表。

--單分區(qū)表,按省份分區(qū)
create table t_user_province (id int, name string,age int) partitioned by (province string);

--雙分區(qū)表,按省份和市分區(qū)
create table t_user_province_city (id int, name string,age int) partitioned by (province string, city string);

--三分區(qū)表,按省份、市、縣分區(qū)
create table t_user_province_city_county (id int, name string,age int) partitioned by (province string, city string,county string);

多分區(qū)表的數(shù)據(jù)插入和查詢使用

load data local inpath '文件路徑' into table t_user_province partition(province='shanghai');

load data local inpath '文件路徑' into table t_user_province_city_county partition(province='zhejiang',city='hangzhou',county='xiaoshan');

select * from t_user_province_city_county where province='zhejiang' and city='hangzhou';

3.3 Hive分桶表

分桶表的概念

分桶表也叫做桶表,源自建表語法中bucket單詞。是一種用于優(yōu)化查詢而設計的表類型。該功能可以讓數(shù)據(jù)分解為若干個部分易于管理。

在分桶時,我們要指定根據(jù)哪個字段將數(shù)據(jù)分為幾桶(幾個部分)。

默認規(guī)則是:

可以發(fā)現(xiàn)桶編號相同的數(shù)據(jù)會被分到同一個桶當中。hash_function取決于分桶字段bucketing_column的類型:

如果是int類型,hash_function(int) == int;

如果是其他類型,比如bigint,string或者復雜數(shù)據(jù)類型,hash_function比較棘手,將是從該類型派生的某個數(shù)字,比如hashcode值。

分桶表的語法

--分桶表建表語句
CREATE [EXTERNAL] TABLE [db_name.]table_name
[(col_name data_type, ...)]
CLUSTERED BY (col_name)
INTO N BUCKETS;

其中CLUSTERED BY (col_name)表示根據(jù)哪個字段進行分;
INTO N BUCKETS表示分為幾桶(也就是幾個部分)。
需要注意的是,分桶的字段必須是表中已經(jīng)存在的字段

分桶表的創(chuàng)建

現(xiàn)有美國2021-1-28號,各個縣county的新冠疫情累計案例信息,包括確診病例和死亡病例,數(shù)據(jù)格式如下所示:

2021-01-28,Juneau City and Borough,Alaska,02110,1108,3
2021-01-28,Kenai Peninsula Borough,Alaska,02122,3866,18
2021-01-28,Ketchikan Gateway Borough,Alaska,02130,272,1
2021-01-28,Kodiak Island Borough,Alaska,02150,1021,5
2021-01-28,Kusilvak Census Area,Alaska,02158,1099,3
2021-01-28,Lake and Peninsula Borough,Alaska,02164,5,0
2021-01-28,Matanuska-Susitna Borough,Alaska,02170,7406,27
2021-01-28,Nome Census Area,Alaska,02180,307,0
2021-01-28,North Slope Borough,Alaska,02185,973,3
2021-01-28,Northwest Arctic Borough,Alaska,02188,567,1
2021-01-28,Petersburg Borough,Alaska,02195,43,0

字段含義如下:count_date(統(tǒng)計日期),county(縣),state(州),fips(縣編碼code),cases(累計確診病例),deaths(累計死亡病例)。
根據(jù)state州把數(shù)據(jù)分為5桶,建表語句如下:

CREATE TABLE itcast.t_usa_covid19(
    count_date string,
    county string,
    state string,
    fips int,
    cases int,
    deaths int)
CLUSTERED BY(state) INTO 5 BUCKETS;

在創(chuàng)建分桶表時,還可以指定分桶內的數(shù)據(jù)排序規(guī)則
--根據(jù)state州分為5桶 每個桶內根據(jù)cases確診病例數(shù)倒序排序

CREATE TABLE itcast.t_usa_covid19_bucket_sort(
      count_date string,
      county string,
      state string,
      fips int,
      cases int,
      deaths int)
CLUSTERED BY(state) sorted by (cases desc) INTO 5 BUCKETS;

分桶表的數(shù)據(jù)加載

--step1:開啟分桶的功能 從Hive2.0開始不再需要設置
set hive.enforce.bucketing=true;

--step2:把源數(shù)據(jù)加載到普通hive表中
CREATE TABLE itcast.t_usa_covid19(
       count_date string,
       county string,
       state string,
       fips int,
       cases int,
       deaths int)
row format delimited fields terminated by ",";
--將源數(shù)據(jù)上傳到HDFS,t_usa_covid19表對應的路徑下
hadoop fs -put us-covid19-counties.dat /user/hive/warehouse/itcast.db/t_usa_covid19

--step3:使用insert+select語法將數(shù)據(jù)加載到分桶表中
insert into t_usa_covid19_bucket select * from t_usa_covid19;

到HDFS上查看t_usa_covid19_bucket底層數(shù)據(jù)結構可以發(fā)現(xiàn),數(shù)據(jù)被分為了5個部分。

并且從結果可以發(fā)現(xiàn),只要hash_function(bucketing_column)一樣的,就一定被分到同一個桶中。

分桶表的使用好處

和非分桶表相比,分桶表的使用好處有以下幾點:

1、基于分桶字段查詢時,減少全表掃描

--基于分桶字段state查詢來自于New York州的數(shù)據(jù)
--不再需要進行全表掃描過濾
--根據(jù)分桶的規(guī)則hash_function(New York) mod 5計算出分桶編號
--查詢指定分桶里面的數(shù)據(jù) 就可以找出結果  此時是分桶掃描而不是全表掃描
select *
from t_usa_covid19_bucket where state="New York";

2、JOIN時可以提高MR程序效率,減少笛卡爾積數(shù)量

對于JOIN操作兩個表有一個相同的列,如果對這兩個表都進行了分桶操作。那么將保存相同列值的桶進行JOIN操作就可以,可以大大較少JOIN的數(shù)據(jù)量。

3、分桶表數(shù)據(jù)進行抽樣

當數(shù)據(jù)量特別大時,對全體數(shù)據(jù)進行處理存在困難時,抽樣就顯得尤其重要了。抽樣可以從被抽取的數(shù)據(jù)中估計和推斷出整體的特性,是科學實驗、質量檢驗、社會調查普遍采用的一種經(jīng)濟有效的工作和研究方法。

3.4 Hive Transactional Tables事務表

Hive事務背景知識

Hive本身從設計之初時,就是不支持事務的,因為Hive的核心目標是將已經(jīng)存在的結構化數(shù)據(jù)文件映射成為表,然后提供基于表的SQL分析處理,是一款面向分析的工具。且映射的數(shù)據(jù)通常存儲于HDFS上,而HDFS是不支持隨機修改文件數(shù)據(jù)的。

這個定位就意味著在早期的Hive的SQL語法中是沒有update,delete操作的,也就沒有所謂的事務支持了,因為都是select查詢分析操作。

從Hive0.14版本開始,具有ACID語義的事務已添加到Hive中,以解決以下場景下遇到的問題:

流式傳輸數(shù)據(jù)。使用如Apache Flume或Apache Kafka之類的工具將數(shù)據(jù)流式傳輸?shù)紿adoop集群中。雖然這些工具可以每秒數(shù)百行或更多行的速度寫入數(shù)據(jù),但是Hive只能每隔15分鐘到一個小時添加一次分區(qū)。頻繁添加分區(qū)會很快導致表中大量的分區(qū)。因此通常使用這些工具將數(shù)據(jù)流式傳輸?shù)浆F(xiàn)有分區(qū)中,但是這會使讀者感到臟讀(也就是說,他們將在開始查詢后看到寫入的數(shù)據(jù)),并將許多小文件留在目錄中,這將給NameNode帶來壓力。通過事務功能,同時允許讀者獲得一致的數(shù)據(jù)視圖并避免過多的文件。
尺寸變化緩慢。在典型的星型模式數(shù)據(jù)倉庫中,維度表隨時間緩慢變化。例如,零售商將開設新商店,需要將其添加到商店表中,或者現(xiàn)有商店可能會更改其平方英尺或某些其他跟蹤的特征。這些更改導致插入單個記錄或更新 記錄(取決于所選策略)。
數(shù)據(jù)重述。有時發(fā)現(xiàn)收集的數(shù)據(jù)不正確,需要更正。從Hive 0.14開始,可以通過INSERT,UPDATE和 DELETE支持這些用例 。

Hive事務表局限性

雖然Hive支持了具有ACID語義的事務,但是在使用起來,并沒有像在MySQL中使用那樣方便,有很多局限性。原因很簡單,畢竟Hive的設計目標不是為了支持事務操作,而是支持分析操作,且最終基于HDFS的底層存儲機制使得文件的增加刪除修改操作需要動一些小心思。具體限制如下:

尚不支持BEGIN,COMMIT和ROLLBACK。所有語言操作都是自動提交的。
僅支持ORC文件格式(STORED AS ORC)
默認情況下事務配置為關閉。需要配置參數(shù)開啟使用。
表必須是分桶表(Bucketed)才可以使用事務功能。
表參數(shù)transactional必須為true
外部表不能成為ACID表,不允許從非ACID會話讀取/寫入ACID表。

案例:創(chuàng)建使用Hive事務表

如果不做任何配置修改,直接針對Hive中已有的表進行Update、Delete、Insert操作,可以發(fā)現(xiàn),只有insert語句可以執(zhí)行,Update和Delete操作會報錯。

Insert插入操作能夠成功的原因在于,底層是直接把數(shù)據(jù)寫在一個新的文件中的。

下面看一下如何在Hive中配置開啟事務表,并且進行操作

--Hive中事務表的創(chuàng)建使用
--1、開啟事務配置(可以使用set設置當前session生效 也可以配置在hive-site.xml中)
set hive.support.concurrency = true; --Hive是否支持并發(fā)
set hive.enforce.bucketing = true; --從Hive2.0開始不再需要  是否開啟分桶功能
set hive.exec.dynamic.partition.mode = nonstrict; --動態(tài)分區(qū)模式  非嚴格
set hive.txn.manager = org.apache.hadoop.hive.ql.lockmgr.DbTxnManager; --
set hive.compactor.initiator.on = true; --是否在Metastore實例上運行啟動線程和清理線程
set hive.compactor.worker.threads = 1; --在此metastore實例上運行多少個壓縮程序工作線程。

--2、創(chuàng)建Hive事務表
create table trans_student(
    id int,
    name String,
    age int
)clustered by (id) into 2 buckets stored as orc TBLPROPERTIES('transactional'='true');

--3、針對事務表進行insert update delete操作
insert into trans_student (id, name, age)
values (1,"allen",18);

update trans_student
set age = 20
where id = 1;

delete from trans_student where id =1;

select *
from trans_student;

3.5 Hive View視圖

View的概念

Hive中的視圖(view)是一種虛擬表,只保存定義,不實際存儲數(shù)據(jù)。通常從真實的物理表查詢中創(chuàng)建生成視圖,也可以從已經(jīng)存在的視圖上創(chuàng)建新視圖。

創(chuàng)建視圖時,將凍結視圖的架構,如果刪除或更改基礎表,則視圖將失敗,并且視圖不能存儲數(shù)據(jù),操作數(shù)據(jù),只能查詢。

概況起來就是:視圖是用來簡化操作的,它其實是一張?zhí)摫恚谝晥D中不緩沖記錄,也沒有提高查詢性能。

View相關語法

--hive中有一張真實的基礎表t_usa_covid19
select *
from itcast.t_usa_covid19;

--1、創(chuàng)建視圖
create view v_usa_covid19 as select count_date, county,state,deaths from t_usa_covid19 limit 5;

--能否從已有的視圖中創(chuàng)建視圖呢  可以的
create view v_usa_covid19_from_view as select * from v_usa_covid19 limit 2;

--2、顯示當前已有的視圖
show tables;
show views;--hive v2.2.0之后支持

--3、視圖的查詢使用
select *
from v_usa_covid19;

--能否插入數(shù)據(jù)到視圖中呢?
--不行 報錯  SemanticException:A view cannot be used as target table for LOAD or INSERT
insert into v_usa_covid19 select count_date,county,state,deaths from t_usa_covid19;

--4、查看視圖定義
show create table v_usa_covid19;

--5、刪除視圖
drop view v_usa_covid19_from_view;
--6、更改視圖屬性
alter view v_usa_covid19 set TBLPROPERTIES ('comment' = 'This is a view');
--7、更改視圖定義
alter view v_usa_covid19 as  select county,deaths from t_usa_covid19 limit 2;

View的好處

1、將真實表中特定的列數(shù)據(jù)提供給用戶,保護數(shù)據(jù)隱式

--通過視圖來限制數(shù)據(jù)訪問可以用來保護信息不被隨意查詢:
create table userinfo(firstname string, lastname string, ssn string, password string);
create view safer_user_info as select firstname, lastname from userinfo;

--可以通過where子句限制數(shù)據(jù)訪問,比如,提供一個員工表視圖,只暴露來自特定部門的員工信息:
create table employee(firstname string, lastname string, ssn string, password string, department string);
create view techops_employee as select firstname, lastname, ssn from userinfo where department = 'java';

2、降低查詢的復雜度,優(yōu)化查詢語句

--使用視圖優(yōu)化嵌套查詢
from (
   select * from people join cart
   on(cart.pepople_id = people.id) where firstname = 'join'
     )a select a.lastname where a.id = 3;

--把嵌套子查詢變成一個視圖
create view shorter_join as
select * from people join cart
                          on (cart.pepople_id = people.id) where firstname = 'join';
--基于視圖查詢
select lastname from shorter_join where id = 3;

3.6 物化視圖materialized views

物化視圖概念

在傳統(tǒng)的數(shù)據(jù)庫領域基本已經(jīng)都實現(xiàn)了物化視圖, 屬于數(shù)據(jù)庫的高級功能。物化視圖(Materialized View)是一個包括查詢結果的數(shù)據(jù)庫對像,可以用于預先計算并保存表連接或聚集等耗時較多的操作的結果。這樣,在執(zhí)行查詢時,就可以避免進行這些耗時的操作,而從快速的得到結果。使用物化視圖的目的就是通過預計算,提高查詢性能,當然需要占用一定的存儲空間。

但是在SQL On Hadoop領域里支持這個特性的還不多,比較令人期待。Hive3.0開始嘗試引入物化視圖,并提供對于物化視圖的查詢自動重寫(基于Apache Calcite實現(xiàn))。值得注意的是,3.0中提供了物化視圖存儲選擇機制,可以本地存儲在hive,同時可以通過用戶自定義storage handlers存儲在其他系統(tǒng)(如Druid)。

Hive引入物化視圖的目的就是為了優(yōu)化數(shù)據(jù)查詢訪問的效率,相當于從數(shù)據(jù)預處理的角度優(yōu)化數(shù)據(jù)訪問。Hive從3.0丟棄了index索引的語法支持,推薦使用物化視圖和列式存儲文件格式來加快查詢的速度。

物化視圖、視圖區(qū)別

視圖是虛擬的,邏輯存在的,只有定義沒有存儲數(shù)據(jù)。
物化視圖是真實的,物理存在的,里面存儲著預計算的數(shù)據(jù)。

不同于視圖,物化視圖能夠緩存數(shù)據(jù),在創(chuàng)建物化視圖的時候就把數(shù)據(jù)緩存起來了,hive把物化視圖當成一張“表”,將數(shù)據(jù)緩存。而視圖只是創(chuàng)建一個虛表,只有表結構,沒有數(shù)據(jù),實際查詢的時候再去改寫SQL去訪問實際的數(shù)據(jù)表。

視圖的目的是簡化降低查詢的復雜度,而物化視圖的目的是提高查詢性能。

物化視圖語法

--物化視圖的創(chuàng)建語法
CREATE MATERIALIZED VIEW [IF NOT EXISTS] [db_name.]materialized_view_name
    [DISABLE REWRITE]
    [COMMENT materialized_view_comment]
    [PARTITIONED ON (col_name, ...)]
    [CLUSTERED ON (col_name, ...) | DISTRIBUTED ON (col_name, ...) SORTED ON (col_name, ...)]
    [
    [ROW FORMAT row_format]
    [STORED AS file_format]
    | STORED BY 'storage.handler.class.name' [WITH SERDEPROPERTIES (...)]
  ]
  [LOCATION hdfs_path]
  [TBLPROPERTIES (property_name=property_value, ...)]
AS SELECT ...;

語法說明:
(1)物化視圖創(chuàng)建后,select查詢執(zhí)行數(shù)據(jù)自動落地,"自動"也即在query的執(zhí)行期間,任何用戶對該物化視圖是不可見的
(2)默認該物化視圖可被用于查詢優(yōu)化器optimizer查詢重寫(在物化視圖創(chuàng)建期間可以通過DISABLE REWRITE參數(shù)設置禁止使用)
(3)SerDe和storage format非強制參數(shù),可以用戶配置,默認可用hive.materializedview.serde、 hive.materializedview.fileformat
(4)物化視圖可以使用custom storage handlers存儲在外部系統(tǒng)(如druid)例如:

CREATE MATERIALIZED VIEW druid_wiki_mv
            STORED AS 'org.apache.hadoop.hive.druid.DruidStorageHandler'
AS
SELECT __time, page, user, c_added, c_removed
FROM src;

目前支持物化視圖的drop和show操作,后續(xù)會增加其他操作

-- Drops a materialized view
DROP MATERIALIZED VIEW [db_name.]materialized_view_name;
-- Shows materialized views (with optional filters)
SHOW MATERIALIZED VIEWS [IN database_name];
-- Shows information about a specific materialized view
DESCRIBE [EXTENDED | FORMATTED] [db_name.]materialized_view_name;

當數(shù)據(jù)源變更(新數(shù)據(jù)插入inserted、數(shù)據(jù)修改modified),物化視圖也需要更新以保持數(shù)據(jù)一致性,目前需要用戶主動觸發(fā)rebuild

ALTER MATERIALIZED VIEW [db_name.]materialized_view_name REBUILD;

基于物化視圖的查詢重寫

物化視圖創(chuàng)建后即可用于相關查詢的加速,用戶提交查詢query,若該query經(jīng)過重寫后可命中已建視圖,則被重寫命中相關已建視圖實現(xiàn)查詢加速。

是否重寫查詢使用物化視圖可以通過全局參數(shù)控制,默認為true:

SET hive.materializedview.rewriting=true;

用戶可選擇性的失能物化視圖的重寫:

ALTER MATERIALIZED VIEW [db_name.]materialized_view_name ENABLE|DISABLE REWRITE;

案例:物化視圖查詢重寫

--1、新建一張事務表 student_trans
set hive.support.concurrency = true; --Hive是否支持并發(fā)
set hive.enforce.bucketing = true; --從Hive2.0開始不再需要  是否開啟分桶功能
set hive.exec.dynamic.partition.mode = nonstrict; --動態(tài)分區(qū)模式  非嚴格
set hive.txn.manager = org.apache.hadoop.hive.ql.lockmgr.DbTxnManager; --
set hive.compactor.initiator.on = true; --是否在Metastore實例上運行啟動線程和清理線程
set hive.compactor.worker.threads = 1; --在此metastore實例上運行多少個壓縮程序工作線程。

CREATE TABLE student_trans (
      sno int,
      sname string,
      sdept string)
clustered by (sno) into 2 buckets stored as orc TBLPROPERTIES('transactional'='true');


--2、導入數(shù)據(jù)到student_trans中
insert overwrite table student_trans
select sno,sname,sdept
from student;

select *
from student_trans;

--3、對student_trans建立聚合物化視圖
CREATE MATERIALIZED VIEW student_trans_agg
AS SELECT sdept, count(*) as sdept_cnt from student_trans group by sdept;

--注意 這里當執(zhí)行CREATE MATERIALIZED VIEW,會啟動一個MR對物化視圖進行構建
--可以發(fā)現(xiàn)當下的數(shù)據(jù)庫中有了一個物化視圖
show tables;
show materialized views;

--4、對原始表student_trans查詢
--由于會命中物化視圖,重寫query查詢物化視圖,查詢速度會加快(沒有啟動MR,只是普通的table scan)
SELECT sdept, count(*) as sdept_cnt from student_trans group by sdept;

--5、查詢執(zhí)行計劃可以發(fā)現(xiàn) 查詢被自動重寫為TableScan alias: itcast.student_trans_agg
--轉換成了對物化視圖的查詢  提高了查詢效率
explain SELECT sdept, count(*) as sdept_cnt from student_trans group by sdept;

第四章 Hive DDL其他語法

4.1 Database|schema(數(shù)據(jù)庫) DDL操作

Create database

Hive中DATABASE的概念和RDBMS中類似,我們稱之為數(shù)據(jù)庫。在Hive中, DATABASE和SCHEMA是可互換的,使用DATABASE或SCHEMA都可以。

CREATE (DATABASE|SCHEMA) [IF NOT EXISTS] database_name
[COMMENT database_comment]
[LOCATION hdfs_path]
[WITH DBPROPERTIES (property_name=property_value, ...)];

COMMENT:數(shù)據(jù)庫的注釋說明語句
LOCATION:指定數(shù)據(jù)庫在HDFS存儲位置,默認/user/hive/warehouse
WITH DBPROPERTIES:用于指定一些數(shù)據(jù)庫的屬性配置。

下面創(chuàng)建一個數(shù)據(jù)庫:itheima

create database if not exists itheima
comment "this is my first db"
with dbproperties ('createdBy'='AllenWoon');

注意:使用location指定路徑的時候,最好是一個新創(chuàng)建的空文件夾。

Describe database

Hive中的DESCRIBE DATABASE語句用于顯示Hive中數(shù)據(jù)庫的名稱,其注釋(如果已設置)及其在文件系統(tǒng)上的位置等信息。

DESCRIBE DATABASE/SCHEMA [EXTENDED] db_name;

EXTENDED:用于顯示更多信息。

Use database

Hive中的USE DATABASE語句用于選擇特定的數(shù)據(jù)庫,切換當前會話使用哪一個數(shù)據(jù)庫進行操作。

USE database_name;

Drop database

Hive中的DROP DATABASE語句用于刪除(刪除)數(shù)據(jù)庫。
默認行為是RESTRICT,這意味著僅在數(shù)據(jù)庫為空時才刪除它。要刪除帶有表的數(shù)據(jù)庫,我們可以使用CASCADE。

DROP (DATABASE|SCHEMA) [IF EXISTS] database_name [RESTRICT|CASCADE];

Alter database

Hive中的ALTER DATABASE語句用于更改與Hive中的數(shù)據(jù)庫關聯(lián)的元數(shù)據(jù)。

--更改數(shù)據(jù)庫屬性
ALTER (DATABASE|SCHEMA) database_name SET DBPROPERTIES (property_name=property_value, ...);

--更改數(shù)據(jù)庫所有者
ALTER (DATABASE|SCHEMA) database_name SET OWNER [USER|ROLE] user_or_role;

--更改數(shù)據(jù)庫位置
ALTER (DATABASE|SCHEMA) database_name SET LOCATION hdfs_path;

5.2 Table(表)DDL操作

Describe table

Hive中的DESCRIBE table語句用于顯示Hive中表的元數(shù)據(jù)信息。

describe formatted [db_name.]table_name;
describe extended [db_name.]table_name;

如果指定了EXTENDED關鍵字,則它將以Thrift序列化形式顯示表的所有元數(shù)據(jù)。如果指定了FORMATTED關鍵字,則它將以表格格式顯示元數(shù)據(jù)。

Drop table

DROP TABLE刪除該表的元數(shù)據(jù)和數(shù)據(jù)。如果已配置垃圾桶(且未指定PURGE),則該表對應的數(shù)據(jù)實際上將移動到.Trash/Current目錄,而元數(shù)據(jù)完全丟失。刪除EXTERNAL表時,該表中的數(shù)據(jù)不會從文件系統(tǒng)中刪除,只刪除元數(shù)據(jù)。
如果指定了PURGE,則表數(shù)據(jù)不會進入.Trash/Current目錄,跳過垃圾桶直接被刪除。因此如果DROP失敗,則無法挽回該表數(shù)據(jù)。

DROP TABLE [IF EXISTS] table_name [PURGE];    -- (Note: PURGE available in Hive 0.14.0 and later)

Truncate table

從表中刪除所有行。可以簡單理解為清空表的所有數(shù)據(jù)但是保留表的元數(shù)據(jù)結構。如果HDFS啟用了垃圾桶,數(shù)據(jù)將被丟進垃圾桶,否則將被刪除。

TRUNCATE [TABLE] table_name;

Alter table

--1、更改表名
ALTER TABLE table_name RENAME TO new_table_name;
--2、更改表屬性
ALTER TABLE table_name SET TBLPROPERTIES (property_name = property_value, ... );
--更改表注釋
ALTER TABLE student SET TBLPROPERTIES ('comment' = "new comment for student table");
--3、更改SerDe屬性
ALTER TABLE table_name SET SERDE serde_class_name [WITH SERDEPROPERTIES (property_name = property_value, ... )];
ALTER TABLE table_name [PARTITION partition_spec] SET SERDEPROPERTIES serde_properties;
ALTER TABLE table_name SET SERDEPROPERTIES ('field.delim' = ',');
--移除SerDe屬性
ALTER TABLE table_name [PARTITION partition_spec] UNSET SERDEPROPERTIES (property_name, ... );

--4、更改表的文件存儲格式 該操作僅更改表元數(shù)據(jù)。現(xiàn)有數(shù)據(jù)的任何轉換都必須在Hive之外進行。
ALTER TABLE table_name  SET FILEFORMAT file_format;
--5、更改表的存儲位置路徑
ALTER TABLE table_name SET LOCATION "new location";

--6、更改列名稱/類型/位置/注釋
CREATE TABLE test_change (a int, b int, c int);
// First change column a's name to a1.
ALTER TABLE test_change CHANGE a a1 INT;
// Next change column a1's name to a2, its data type to string, and put it after column b.
ALTER TABLE test_change CHANGE a1 a2 STRING AFTER b;
// The new table's structure is:  b int, a2 string, c int.
// Then change column c's name to c1, and put it as the first column.
ALTER TABLE test_change CHANGE c c1 INT FIRST;
// The new table's structure is:  c1 int, b int, a2 string.
// Add a comment to column a1
ALTER TABLE test_change CHANGE a1 a1 INT COMMENT 'this is column a1';

--7、添加/替換列
--使用ADD COLUMNS,您可以將新列添加到現(xiàn)有列的末尾但在分區(qū)列之前。
--REPLACE COLUMNS 將刪除所有現(xiàn)有列,并添加新的列集。
ALTER TABLE table_name ADD|REPLACE COLUMNS (col_name data_type,...);

4.3 Partition(分區(qū))DDL操作

Add partition

分區(qū)值僅在為字符串時才應加引號。位置必須是數(shù)據(jù)文件所在的目錄。
ADD PARTITION會更改表元數(shù)據(jù),但不會加載數(shù)據(jù)。如果分區(qū)位置中不存在數(shù)據(jù),查詢將不會返回任何結果。

--1、增加分區(qū)
ALTER TABLE table_name ADD PARTITION (dt='20170101') location
    '/user/hadoop/warehouse/table_name/dt=20170101';
--一次添加一個分區(qū)

ALTER TABLE table_name ADD PARTITION (dt='2008-08-08', country='us') location '/path/to/us/part080808'
                       PARTITION (dt='2008-08-09', country='us') location '/path/to/us/part080809';  
--一次添加多個分區(qū)

rename partition

--2、重命名分區(qū)
ALTER TABLE table_name PARTITION partition_spec RENAME TO PARTITION partition_spec;
ALTER TABLE table_name PARTITION (dt='2008-08-09') RENAME TO PARTITION (dt='20080809');

delete partition

可以使用ALTER TABLE DROP PARTITION刪除表的分區(qū)。這將刪除該分區(qū)的數(shù)據(jù)和元數(shù)據(jù)。

--3、刪除分區(qū)
ALTER TABLE table_name DROP [IF EXISTS] PARTITION (dt='2008-08-08', country='us');
ALTER TABLE table_name DROP [IF EXISTS] PARTITION (dt='2008-08-08', country='us') PURGE; --直接刪除數(shù)據(jù) 不進垃圾桶

msck partition

Hive將每個表的分區(qū)列表信息存儲在其metastore中。但是,如果將新分區(qū)直接添加到HDFS(例如通過使用hadoop fs -put命令)或從HDFS中直接刪除分區(qū)文件夾,則除非用戶ALTER TABLE table_name ADD/DROP PARTITION在每個新添加的分區(qū)上運行命令,否則metastore(也就是Hive)將不會意識到分區(qū)信息的這些更改。

但是,用戶可以使用修復表選項運行metastore check命令。

--4、修復分區(qū)
MSCK [REPAIR] TABLE table_name [ADD/DROP/SYNC PARTITIONS];

MSC命令的默認選項是“添加分區(qū)”。使用此選項,它將把HDFS上存在但元存儲中不存在的所有分區(qū)添加到元存儲中。DROP PARTITIONS選項將從已經(jīng)從HDFS中刪除的metastore中刪除分區(qū)信息。SYNC PARTITIONS選項等效于調用ADD和DROP PARTITIONS。

如果存在大量未跟蹤的分區(qū),則可以批量運行MSCK REPAIR TABLE,以避免OOME(內存不足錯誤)。

alter partition

--5、修改分區(qū)
--更改分區(qū)文件存儲格式
ALTER TABLE table_name PARTITION (dt='2008-08-09') SET FILEFORMAT file_format;
--更改分區(qū)位置
ALTER TABLE table_name PARTITION (dt='2008-08-09') SET LOCATION "new location";

第五章、Hive Show顯示語法

Show相關的語句提供了一種查詢Hive metastore的方法。可以幫助用戶查詢相關信息。

--1、顯示所有數(shù)據(jù)庫 SCHEMAS和DATABASES的用法 功能一樣
show databases;
show schemas;

--2、顯示當前數(shù)據(jù)庫所有表/視圖/物化視圖/分區(qū)/索引
show tables;
SHOW TABLES [IN database_name]; --指定某個數(shù)據(jù)庫

--3、顯示當前數(shù)據(jù)庫下所有視圖
Show Views;
SHOW VIEWS 'test_*'; -- show all views that start with "test_"
SHOW VIEWS FROM test1; -- show views from database test1
SHOW VIEWS [IN/FROM database_name];

--4、顯示當前數(shù)據(jù)庫下所有物化視圖
SHOW MATERIALIZED VIEWS [IN/FROM database_name];

--5、顯示表分區(qū)信息,分區(qū)按字母順序列出,不是分區(qū)表執(zhí)行該語句會報錯
show partitions table_name;

--6、顯示表/分區(qū)的擴展信息
SHOW TABLE EXTENDED [IN|FROM database_name] LIKE table_name;
show table extended like student;

--7、顯示表的屬性信息
SHOW TBLPROPERTIES table_name;
show tblproperties student;

--8、顯示表、視圖的創(chuàng)建語句
SHOW CREATE TABLE ([db_name.]table_name|view_name);
show create table student;

--9、顯示表中的所有列,包括分區(qū)列。
SHOW COLUMNS (FROM|IN) table_name [(FROM|IN) db_name];
show columns  in student;

--10、顯示當前支持的所有自定義和內置的函數(shù)
show functions;

--11、Describe desc
--查看表信息
desc extended table_name;
--查看表信息(格式化美觀)
desc formatted table_name;
--查看數(shù)據(jù)庫相關信息
describe database database_name;

作者:王陸
出處:https://www.cnblogs.com/wkfvawl/

-------------------------------------------

個性簽名:罔談彼短,靡持己長。做一個謙遜愛學的人!

本站使用「署名 4.0 國際」創(chuàng)作共享協(xié)議,轉載請在文章明顯位置注明作者及出處。鑒于博主處于考研復習期間,有什么問題請在評論區(qū)中提出,博主盡可能當天回復,加微信好友請注明原因

總結

以上是生活随笔為你收集整理的HiveSQL 数据定义语言(DDL)的全部內容,希望文章能夠幫你解決所遇到的問題。

如果覺得生活随笔網(wǎng)站內容還不錯,歡迎將生活随笔推薦給好友。

国产黄在线播放 | 亚洲视频电影在线 | 在线观看激情av | 天天久久夜夜 | 欧美va天堂va视频va在线 | 99国产精品一区 | 国产一级黄色电影 | 久久网站免费 | 久久视频这里只有精品 | 日韩免费在线观看视频 | 国产精品麻豆果冻传媒在线播放 | 久久网址 | 97超碰人人模人人人爽人人爱 | 夜夜嗨av色一区二区不卡 | 99久久9 | 精品国产区 | 免费又黄又爽的视频 | 成 人 a v天堂 | 日韩久久久久久久久久 | 毛片美女网站 | 成人h在线观看 | 91九色丨porny丨丰满6 | 欧美日韩免费在线观看视频 | 久久综合久久久 | 国产性xxxx| 手机看片国产日韩 | 黄色三几片 | 国产糖心vlog在线观看 | 97人人超碰在线 | 亚洲精品一区中文字幕乱码 | 日韩三级一区 | 亚洲japanese制服美女 | 成人精品99 | 97超碰人人爱 | 视频在线99re| 久久精品久久综合 | 精品国内自产拍在线观看视频 | 精品国产一区二区三区在线 | 亚洲最快最全在线视频 | 99久久www| 99精品久久久久久久久久综合 | 天天色综合1 | 欧美成年性 | 久久亚洲影院 | 日韩mv欧美mv国产精品 | 日本久久电影网 | 国内成人av | 韩日在线一区 | 国产精品毛片一区视频播不卡 | 五月天激情视频在线观看 | 国产精品自在线拍国产 | 91色视频 | 国产精品久久久久一区二区三区共 | 日韩精品 在线视频 | 日韩免费一区二区三区 | 亚洲最新av在线网站 | 美女精品久久久 | 不卡视频在线 | 黄色a一级视频 | 在线不卡视频 | 伊人婷婷综合 | 国产91精品一区二区麻豆亚洲 | 欧美淫视频 | 亚洲干 | 丁香婷婷久久久综合精品国产 | 深夜男人影院 | 免费观看国产视频 | 国产视频一区二区在线观看 | 九色免费视频 | 中字幕视频在线永久在线观看免费 | 日韩一区二区三区在线看 | 99精品欧美一区二区蜜桃免费 | 亚洲日本在线一区 | 成人黄色国产 | 日日干综合| 91在线看| 在线看日韩| 黄色免费在线视频 | 久久精品这里热有精品 | 成人黄色在线视频 | 久久久精品欧美一区二区免费 | 97人人模人人爽人人喊中文字 | 手机成人在线电影 | 国产啊v在线观看 | 粉嫩av一区二区三区四区五区 | 欧美成人h版在线观看 | 国产91精品一区二区麻豆网站 | 天天天天色射综合 | 亚洲免费视频在线观看 | 18av在线视频 | 日韩免费在线观看 | 欧美人人爱 | 91高清一区| 日韩va欧美va亚洲va久久 | 久久激情视频 久久 | 99久久精品免费 | 欧美久久久久久久久 | 狠狠干天天操 | 99综合久久 | 97人人网 | a√天堂中文在线 | 91大神电影 | 日韩高清在线一区二区 | 在线免费观看国产视频 | aaa亚洲精品一二三区 | 狠狠色狠狠色综合日日小说 | 国产91精品久久久久 | 日韩欧美高清在线 | 国产在线精品一区二区 | 久草电影在线观看 | av中文字幕第一页 | 伊人影院在线观看 | 九九九九九九精品任你躁 | 福利视频入口 | 国产精品 国产精品 | 国内视频一区二区 | 久久成年人视频 | 又黄又爽又湿又无遮挡的在线视频 | 久久久久久久久网站 | 久热免费在线 | 亚洲伊人色 | 久久久久久久久久影视 | 欧美一区二区三区四区夜夜大片 | 国产精品99视频 | 欧美午夜久久 | 日韩啪啪小视频 | 亚洲成人午夜在线 | 麻花豆传媒一二三产区 | 免费h漫在线观看 | 91成人在线视频观看 | www.日日日.com | 天天操天天操一操 | 天天操天天舔天天爽 | 激情视频一区二区三区 | 免费a v在线 | 97操碰 | 欧美a性| 国产精品久久中文字幕 | 精品欧美一区二区在线观看 | 欧美日韩高清 | 欧美色操 | 精品无人国产偷自产在线 | 日韩高清一区二区 | 91成人蝌蚪 | 伊人激情网 | 99精品视频播放 | 欧美91精品 | 在线观看完整版 | 黄色在线观看www | 人人干网站| 国产免费观看高清完整版 | 成年人在线视频观看 | 区一区二在线 | av播放在线 | 伊人国产在线播放 | 国产三级精品三级在线观看 | 99精品区 | 超碰人人做 | 久久久精品国产一区二区三区 | 在线免费观看一区二区三区 | 天天干一干 | 九色porny真实丨国产18 | av三级在线免费观看 | 久久国产精品视频观看 | 亚洲专区在线视频 | 天天综合入口 | 91精品婷婷国产综合久久蝌蚪 | 97在线视频观看 | 国产精品久久久网站 | 欧美成人在线网站 | 91香蕉视频 mp4 | 国产精品v欧美精品 | 99久久精品国 | 免费视频18 | 国产免费亚洲高清 | 97视频人人澡人人爽 | www激情久久| 深夜免费福利在线 | 黄色小视频在线观看免费 | 成人va在线观看 | 91九色蝌蚪视频网站 | av电影在线播放 | 亚洲天堂网站视频 | 五月天色丁香 | 亚洲黄色一级电影 | 亚洲黄色片一级 | 91pony九色丨交换 | 婷婷久操| 日本黄色免费大片 | 国产一级片免费视频 | 久草在线视频网站 | 99精品免费久久久久久久久日本 | 日韩在线免费观看视频 | 亚洲精品乱码久久久久久按摩 | 99草视频在线观看 | 午夜av在线电影 | 就要色综合 | 久久精品一二三 | 又黄又爽又湿又无遮挡的在线视频 | 97在线视频免费看 | 二区精品视频 | 色综合五月 | 国产精品a久久久久 | 依人成人综合网 | 91资源在线观看 | 欧美孕妇视频 | 1024手机基地在线观看 | 国产黄色高清 | 日本三级中文字幕在线观看 | 不卡av在线免费观看 | 91九色视频导航 | 国产精品毛片一区视频播不卡 | 麻豆极品| 成人黄色小说网 | 久久视频这里有久久精品视频11 | 欧美亚洲一级片 | 国产精品久久久久久久久久久久午 | 欧美日韩三级 | 91av看片 | 国产在线看一区 | 国产精品孕妇 | 国产xxxxx在线观看 | 少妇bbbb揉bbbb日本 | 精品久久久久久久久久久久久 | 日韩成人高清在线 | 免费人人干| 在线观看免费视频 | 青春草国产视频 | 亚洲综合色视频在线观看 | 色5月婷婷 | 欧美一级小视频 | 美女视频久久久 | 免费亚洲精品 | a在线免费 | 国产1区在线观看 | 精品极品在线 | 日韩欧美国产视频 | 人人爽人人爽人人爽人人爽 | 天天干天天碰 | 免费观看第二部31集 | 一区二区三区高清在线 | 国产精品黄网站在线观看 | 亚洲综合激情 | 最近中文字幕视频网 | 在线a视频| 国产精品96久久久久久吹潮 | 92精品国产成人观看免费 | 亚洲人人射 | 91精品一区二区三区蜜桃 | 五月婷网站 | 精品影院| 激情伊人五月天久久综合 | 国产精品av免费在线观看 | 亚洲日本韩国一区二区 | 日韩高清网站 | 久久综合色播五月 | 日韩av区| 国产精品一区二区三区99 | 狠狠狠色丁香综合久久天下网 | 麻豆视频大全 | 特黄免费av | 色婷婷福利视频 | 婷婷中文在线 | 国产精品久久久久久久电影 | 91精品啪在线观看国产 | 中文在线免费观看 | 精品国产a | 久久这里只有精品视频首页 | 国产精品手机在线观看 | 欧美综合色在线图区 | 超碰在线日韩 | 精品黄色在线观看 | 国产999精品久久久影片官网 | 久久视频一区 | 欧美激情xxxx性bbbb | 成人欧美一区二区三区黑人麻豆 | 久久伦理电影 | 国产精品久久久毛片 | 国产理论一区二区三区 | 中文字幕在线中文 | www.成人久久 | 福利视频一区二区 | 蜜桃视频在线视频 | 欧美色就是色 | av片一区 | 深夜免费小视频 | 97超碰资源 | 欧美动漫一区二区三区 | 99久久久成人国产精品 | 2019中文字幕网站 | 亚洲精品免费在线观看视频 | 精品96久久久久久中文字幕无 | 视频三区在线 | 久草视频在线资源站 | 国产精品入口久久 | 亚洲午夜久久久久久久久久久 | 狠狠干天天射 | 伊人色综合久久天天 | 久久免费国产精品 | 国产精品第一视频 | 欧美日韩亚洲第一 | 99精品视频在线观看播放 | 国产网站在线免费观看 | 欧美日韩一区二区视频在线观看 | 亚洲精选在线观看 | 中文十次啦 | 欧美精品在线一区二区 | 久久免费视频7 | 天堂av免费在线 | 国产精品久久久久久久久久久久 | 精品久久综合 | 91xav| 九色精品免费永久在线 | 久久国产精品99久久人人澡 | 在线免费观看av网站 | 友田真希av | 天天操天天草 | va视频在线观看 | 国产网红在线观看 | 国产成人在线播放 | 久久99精品国产麻豆宅宅 | 久久人视频 | 激情五月婷婷综合网 | 久久伊人色综合 | 91人人爱 | 999久久久免费精品国产 | 天堂久色 | 精品av网站 | 黄色片免费看 | 免费99精品国产自在在线 | 亚洲区另类春色综合小说校园片 | 一级黄色av | 亚洲精品色婷婷 | 在线视频 一区二区 | 久久久www成人免费精品 | 99草视频 | 免费看国产a | 99热最新精品 | 九草视频在线观看 | 国产精品入口麻豆 | 在线观看视频一区二区三区 | 97成人精品区在线播放 | 国产剧情一区二区在线观看 | 激情久久综合 | 91香蕉视频黄色 | 一区三区视频在线观看 | 午夜精品一区二区三区视频免费看 | 亚洲精品在线免费看 | 国产这里只有精品 | 中文在线√天堂 | 91av蜜桃| 精品网站999www | 中文字幕在线观看第三页 | 99视屏| 国产在线播放一区二区 | 黄色福利视频网站 | 精品96久久久久久中文字幕无 | 欧美另类xxxx | 久久久久99精品成人片三人毛片 | 天天色综合1 | 麻豆视传媒官网免费观看 | 免费日韩 精品中文字幕视频在线 | 玖玖视频精品 | 蜜臀精品久久久久久蜜臀 | www.亚洲激情.com | 日韩av线观看 | 欧美孕交vivoestv另类 | 91大神精品视频在线观看 | 亚洲精品午夜国产va久久成人 | 天天干天天操天天射 | 国产美女免费视频 | 日韩电影精品一区 | 色播五月激情五月 | 香蕉视频国产在线 | 操操操夜夜操 | 国产精品久久久久久久免费观看 | 人人爽夜夜爽 | 久射网| 玖玖爱免费视频 | 五月婷婷开心 | 日韩av区 | 天天搞天天干 | 一级黄色片在线观看 | 91看片淫黄大片在线播放 | 成人va视频 | 午夜av激情 | 亚洲综合视频在线 | 超碰97公开 | 精品久久影院 | 婷婷伊人网 | 亚洲天堂网视频 | 91探花在线视频 | 亚洲精品一区二区三区高潮 | 丝袜美女视频网站 | 成年人视频在线免费 | 国产在线小视频 | 国产精品99页 | 亚洲欧美精品一区二区 | 欧美在线视频a | 国产精品久久久久久久久久久久午夜 | 欧美aaa大片 | 99视频偷窥在线精品国自产拍 | 中日韩男男gay无套 日韩精品一区二区三区高清免费 | 狠狠狠狠狠狠 | 粉嫩av一区二区三区四区在线观看 | 99欧美 | 99热高清| 国产精品欧美精品 | 一区二区三区四区精品 | 国产黄色在线看 | 91色九色 | 国产一区二区中文字幕 | 国产视频91在线 | 国产日韩在线看 | h视频在线看 | 国产欧美最新羞羞视频在线观看 | 国产色久| 丁香久久五月 | 青青河边草观看完整版高清 | 国产精品99页 | 亚洲综合日韩在线 | 久久蜜臀一区二区三区av | 亚洲成人网av | 天天色天天干天天色 | 中文在线免费一区三区 | 99免费精品 | 在线观看国产日韩 | 97电影院网 | 亚洲片在线观看 | 日韩久久久久久久 | 性色av免费观看 | 久久久久激情电影 | 成人资源网| www色综合| 婷婷精品在线视频 | 欧美激情综合五月色丁香小说 | 亚洲国产成人精品电影在线观看 | 亚洲精选久久 | 国产在线一区观看 | 麻豆视传媒官网免费观看 | 久久久久久久久久毛片 | 一级理论片在线观看 | 在线观看视频色 | 日韩精品一区二区三区视频播放 | 精品国产美女在线 | 午夜 免费| 国产精品乱码在线 | 成人免费观看网址 | 丁香激情综合国产 | 麻豆免费在线视频 | 九九激情视频 | 最新久久久 | 九九免费在线观看 | 91久久精品一区二区二区 | av片在线观看免费 | 国产精品永久免费观看 | 亚洲精品久久久久999中文字幕 | 人人舔人人干 | 欧美成人h版 | 国产精品高清免费在线观看 | 激情偷乱人伦小说视频在线观看 | 狠狠色丁香 | 久久久久国产a免费观看rela | x99av成人免费 | 国产黄色片免费 | 美女免费视频观看网站 | 国产精品九九九九九九 | 中文字幕视频播放 | 久久国产精品久久精品 | 国产一级三级 | 国产黄色片在线免费观看 | av中文字幕在线观看网站 | 久久躁日日躁aaaaxxxx | 黄色大全免费网站 | 国产精品成人久久久久久久 | 国产精品美女久久久久久久 | 国产一区高清在线观看 | 欧美日韩视频观看 | 伊人久久国产 | 在线看v片成人 | 2019中文字幕网站 | 久久艹免费 | 久久视频免费在线观看 | 欧美日韩精品在线播放 | 日韩av片无码一区二区不卡电影 | 在线视频免费观看 | 有没有在线观看av | 黄p网站在线观看 | 91日韩精品 | 色综合久久精品 | 亚洲精品在线免费看 | 99视频在线观看一区三区 | 国产精品成人一区 | 狠狠操操 | 国产成人精品亚洲 | 在线 影视 一区 | 天天天操操操 | 日日夜夜操操操操 | 国产91成人在在线播放 | 日韩高清精品免费观看 | 久精品在线 | 国产精品视频永久免费播放 | 日本黄色大片儿 | 久久私人影院 | 亚洲第一伊人 | 美女久久久久久久久久 | 99这里只有 | 91成人久久 | 91在线播放视频 | 久草免费在线观看 | a午夜在线 | 国产精品五月天 | 欧美极品少妇xbxb性爽爽视频 | 午夜精品久久久久 | 国产精品理论在线观看 | 99免费国产| av在线8 | 狠狠色丁香| 国产在线观看国语版免费 | 亚洲国产一区二区精品专区 | 久久国精品 | 国产精品福利av | 国产黄色免费看 | 精品主播网红福利资源观看 | 欧美久草在线 | 91九色视频观看 | 日韩理论视频 | 国产中年夫妇高潮精品视频 | 91资源在线观看 | 国产精品网红直播 | 久草精品资源 | 久久66热这里只有精品 | 免费av黄色 | 午夜精品久久久久久久99 | 国产香蕉久久精品综合网 | 天天草天天操 | 一区二区三区在线影院 | 丁香婷婷在线观看 | 国产精品资源网 | 国产精品一区二区久久精品 | 国产精品婷婷 | 九月婷婷人人澡人人添人人爽 | 激情开心站 | 国产精品成人国产乱一区 | 特级xxxxx欧美 | 午夜视频在线观看欧美 | 国产大片黄色 | 97精品在线视频 | 亚洲精品一区中文字幕乱码 | 久久精品电影网 | 免费黄色网止 | 久草在线视频资源 | 久99久中文字幕在线 | 久久99免费观看 | 91精品一区二区三区久久久久久 | 日韩精品免费在线观看视频 | 中文字幕在线观看完整版电影 | 99久久精品日本一区二区免费 | 波多野结衣在线视频一区 | 久久久久婷 | 日韩一三区 | 麻豆成人小视频 | av资源在线观看 | 欧美日产在线观看 | 日韩手机视频 | 国产成人综合在线观看 | 国产精品1024 | 精品国产理论 | 999精品视频 | 国产在线播放一区二区 | 国产精品色在线 | 丁香婷婷色月天 | 91桃色在线播放 | 国产精品女人久久久 | 午夜三级在线 | 婷婷六月中文字幕 | 伊甸园永久入口www 99热 精品在线 | 97超碰国产精品女人人人爽 | 久久综合五月天 | 九九免费精品视频在线观看 | 久久情网| 天天干天天做天天爱 | 久久激情小视频 | 亚洲午夜久久久久 | 日韩亚洲国产中文字幕 | 蜜桃视频精品 | 久久婷婷亚洲 | 久久久免费观看视频 | 欧美俄罗斯性视频 | 亚州精品在线视频 | 亚洲精品视频在线 | 国产手机在线精品 | 91精品国产综合久久福利不卡 | 日本99精品 | 国产伦理久久 | 西西444www大胆高清图片 | 国产做aⅴ在线视频播放 | 久久综合久久综合这里只有精品 | 国产精品资源在线观看 | 天天操导航 | 日韩激情免费视频 | 91大神视频网站 | 国产最新在线视频 | 亚洲最新av在线网址 | 中文理论片 | av观看在线观看 | 五月婷婷婷婷婷 | 在线观看网站黄 | 亚洲精品国偷拍自产在线观看蜜桃 | 一区二区在线电影 | 免费91麻豆精品国产自产在线观看 | 国产成人精品一区二区三区在线观看 | 久久精品国产免费 | 免费三级黄色片 | 五月天久久狠狠 | 亚洲欧洲国产日韩精品 | 91完整版观看 | 欧美成人精品欧美一级乱黄 | 免费欧美精品 | 日韩精品免费在线观看视频 | 国产99久久久国产精品免费二区 | 成人免费xxx在线观看 | 日韩在线 一区二区 | 国产九色视频在线观看 | 黄色毛片大全 | 五月在线视频 | 亚洲一区二区黄色 | 免费在线观看成人小视频 | 日韩三级av| 精品国产乱码久久久久久1区二区 | 五月天天av | www.久久免费视频 | 国产系列在线观看 | 国产精品日韩在线观看 | 天天操天天射天天爱 | 最新真实国产在线视频 | 在线观看日本高清mv视频 | 一区二区久久久久 | 亚洲精品五月天 | 午夜三级在线 | 黄色片免费电影 | 精品在线亚洲视频 | 色就色,综合激情 | 草久久精品 | 91亚洲精品久久久蜜桃网站 | 久久手机看片 | 日韩av成人在线 | 欧美在线aaa | 欧洲精品久久久久毛片完整版 | 天天鲁天天干天天射 | av激情五月 | 97超碰超碰久久福利超碰 | 久久久久久国产精品999 | 成人av影视 | 超碰在线个人 | 黄色一区三区 | 国产精品岛国久久久久久久久红粉 | 不卡视频一区二区三区 | 久久99在线视频 | 狠狠ri | 亚州av免费 | 日韩一二三区不卡 | 特级西西444www大精品视频免费看 | 久久免费视频2 | 久久激情视频 | 国产不卡免费av | 亚洲丁香日韩 | 国产高清在线观看av | 欧美一区二区三区四区夜夜大片 | 久久人人爽人人爽人人片av免费 | 日韩欧美在线中文字幕 | 香蕉91视频 | 亚洲一区二区三区四区在线视频 | 国产日韩精品一区二区 | 91网站在线视频 | 人人爱天天操 | 欧美日韩国产一二三区 | 六月丁香激情网 | 国产精品毛片一区二区三区 | 日韩福利在线观看 | 天天透天天插 | 黄色免费国产 | 亚洲撸撸 | 天天综合导航 | 999ZYZ玖玖资源站永久 | 精品亚洲网 | 国产又黄又猛又粗 | 国产成人精品综合久久久久99 | 2017狠狠干 | 久久综合给合久久狠狠色 | 99久视频| 99热这里只有精品免费 | 香蕉视频在线免费看 | 国产剧情在线一区 | 免费看的黄色的网站 | 成人免费91 | 国产在线一线 | 天天曰天天曰 | 97精品免费视频 | 在线免费试看 | 国产一级电影免费观看 | 狠狠久久综合 | 国产精品国产毛片 | 伊人五月天综合 | 久久久久国产成人免费精品免费 | 一区二区视频在线看 | 香蕉久久国产 | 国产精品久久久久久69 | 久久精品电影网 | 久久久免费网站 | 国产成人在线观看 | 免费日韩 精品中文字幕视频在线 | 国产一二区视频 | 97在线影视 | 日韩一区二区三区高清在线观看 | 涩涩色亚洲一区 | 成人国产精品久久久 | 中文av网站 | 亚洲电影院| 日韩精品久久久免费观看夜色 | 精品人人爽 | 69精品在线观看 | 91精品区| 99综合影院在线 | 色婷婷亚洲综合 | 国内精品久久久久久久久 | 国产一区二区三区高清播放 | 久久国产精品免费观看 | 日韩精品视频网站 | 久久亚洲精品国产亚洲老地址 | 久久不射电影院 | 日本丰满少妇免费一区 | av在线日韩 | 天天综合网国产 | 久久影视一区 | 三级黄色网址 | 九色精品在线 | 久久精品日产第一区二区三区乱码 | 久久艹国产 | 伊人婷婷 | 综合天堂av久久久久久久 | 99tvdz@gmail.com| 久久亚洲电影 | 99久久精品久久久久久清纯 | 成人毛片一区 | 三级av在线播放 | 色欧美成人精品a∨在线观看 | 福利视频导航网址 | 永久免费毛片在线观看 | av片中文| 精品国产成人 | 亚洲涩涩网 | 久久精品8 | 成人污视频在线观看 | 久久视频免费在线观看 | 日韩一区二区在线免费观看 | 免费大片av | 看国产黄色片 | 国产精品国产三级国产aⅴ无密码 | 中日韩欧美精彩视频 | 欧美激情视频久久 | 国产成人精品一区二区三区网站观看 | 99色资源 | 91久久国产自产拍夜夜嗨 | 伊人婷婷色 | 久久99国产精品免费 | 在线色亚洲 | 精精国产xxxx视频在线播放 | 美女久久久久久久 | 91久久在线观看 | 奇米7777狠狠狠琪琪视频 | 人人干人人上 | 色偷偷av男人天堂 | 99久久精品国产免费看不卡 | 97韩国电影 | 欧美大片大全 | av成人免费 | 日韩免费福利 | 国产精品久久久久久久久搜平片 | 在线播放亚洲 | 欧美日韩视频在线观看免费 | 中文字幕之中文字幕 | 日韩av线观看 | 最近中文国产在线视频 | 看毛片的网址 | 国产精品久久久久久爽爽爽 | 日韩免费电影网站 | 91九色性视频 | 一区二区三区日韩在线观看 | 色中文字幕在线观看 | 免费亚洲黄色 | 最新久久免费视频 | 国产精品第十页 | 四虎国产免费 | 91精品国产乱码 | 久久dvd| 久久九九精品久久 | 狠狠色丁香婷婷综合欧美 | 久久久久久久国产精品 | 国产精品黑丝在线观看 | 中文字幕日韩高清 | 国产精品99久久久久的智能播放 | 国产精品久久婷婷六月丁香 | 久草精品网 | 色婷婷综合久久久久中文字幕1 | 久久综合九色综合久久久精品综合 | 婷婷新五月 | 四虎在线视频免费观看 | avv天堂| 西西4444www大胆无视频 | 久久亚洲私人国产精品 | 国产五月天婷婷 | 国产精品九九久久久久久久 | 天天超碰 | 久久大香线蕉app | www.天天草 | 91在线看片 | 人人澡人人模 | 182午夜在线观看 | 丁香婷婷久久久综合精品国产 | 成人 国产 在线 | 99在线精品免费视频九九视 | 黄色av电影 | 欧美性爽爽 | 色午夜| 国产人免费人成免费视频 | 国产美女被啪进深处喷白浆视频 | 日本久久精 | 99精品一区二区 | 国产在线观看地址 | 伊人天堂av | 婷婷成人亚洲综合国产xv88 | 97在线免费 | www.五月天婷婷 | 97在线观看免费观看 | 丁香婷婷网 | 亚洲无线视频 | 一区二区欧美激情 | www视频在线播放 | 久久精品99国产国产精 | 成 人 黄 色 视频 免费观看 | 天堂网一区二区三区 | 国产精品久久久久久一区二区三区 | 免费av网站观看 | 99精品视频免费看 | 精品亚洲一区二区 | 五月婷婷久| 欧美日韩国产网站 | 国产欧美最新羞羞视频在线观看 | 亚洲日日夜夜 | 成人av免费在线看 | 国产一区二区三区高清播放 | 又紧又大又爽精品一区二区 | 西西人体4444www高清视频 | 国产精品久久久久9999 | 日韩精品一区二区三区电影 | 国产蜜臀av| 国产精品久久久久久久久免费看 | 成人在线黄色电影 | 成人免费视频播放 | av在线色 | 在线影院中文字幕 | 亚洲涩综合 | 欧美男男激情videos | 欧美日韩精品在线观看视频 | 美女网站黄免费 | 成人国产亚洲 | 欧美极品在线播放 | 国产视频不卡一区 | 国产亚洲午夜高清国产拍精品 | 色婷婷一 | 欧美激情综合网 | 麻豆视屏 | 99久久99热这里只有精品 | 黄色av电影网 | 国产一区高清在线观看 | 亚洲黄a | 99视频免费 | 五月天中文字幕mv在线 | av片中文| 成年人在线观看视频免费 | 午夜私人影院久久久久 | 亚洲 欧美 另类人妖 | 在线一二三四区 | 日本黄色特级片 | www.香蕉视频在线观看 | 亚洲黄色app | 欧美国产日韩在线观看 | 国产一卡久久电影永久 | 欧美性做爰猛烈叫床潮 | 久久国产欧美日韩 | 久久久久久久亚洲精品 | 日韩av中文在线观看 | 色婷婷激情五月 | 国产自产高清不卡 | 色综合天天视频在线观看 | 狠狠色丁香婷婷综合欧美 | 在线观看自拍 | 欧美日韩在线电影 | 亚洲a网 | 国产黄色美女 | 国产成人精品999在线观看 | 激情欧美一区二区免费视频 | 狠狠干婷婷色 | 就要干b| 午夜电影一区 | 在线免费观看视频一区 | 亚洲aⅴ在线 | 五月婷婷爱| 亚洲尺码电影av久久 | 精品国产精品久久一区免费式 | 在线观看完整版 | 在线视频手机国产 | 日本在线观看中文字幕 | 日韩在线观看视频网站 | 超碰在线成人 | 国产九九九视频 | 免费亚洲黄色 | 天天射综合 | 国产精品原创视频 | 久久超碰99 | 久久综合之合合综合久久 | 91久久人澡人人添人人爽欧美 | 国产精品白丝av | 精品国产乱码久久久久久1区2匹 | 国产中文字幕一区二区三区 | 日本视频不卡 | 天天草天天干天天 | 日韩精品一区二区在线观看视频 | 国产亚洲日本 | 69精品视频在线观看 | 中文字幕av全部资源www中文字幕在线观看 | 天天爽天天搞 | 亚洲天堂网视频在线观看 | av免费看电影 | 日韩一级精品 | 久久av高清 | 久精品在线 | 6080yy午夜一二三区久久 | 国产一区在线播放 | 中文字幕亚洲精品日韩 | 天天操人人干 | 青草视频在线 | 中文字幕在线播放一区 | 亚洲春色成人 | 99亚洲精品 | 国产精品毛片一区二区在线看 | 久久久久一区二区三区 | 狠狠色噜噜狠狠狠 | 国产一区影院 | 欧美analxxxx | 五月婷婷一区 | 天天艹天天干天天 | 欧洲成人免费 | 亚洲精品国产区 | 欧美精品久久久久久久亚洲调教 | 国产中文字幕av | 日韩黄色大片在线观看 | 免费手机黄色网址 | 国产精品久久久毛片 | 国产精品欧美 | 国产精品成人在线观看 | 欧美乱码精品一区二区 | 亚洲无人区小视频 | 97久久精品午夜一区二区 | 久久精品视频免费 | 亚洲在线激情 | 日韩精品免费在线视频 | 免费观看xxxx9999片 | 亚洲精品乱码久久久久久蜜桃不爽 | 日韩免费精品 | 国产精品videoxxxx | 国产黄色在线 | 五月天中文字幕 | 国产一区二区三区在线免费观看 | 日韩av影视在线 | 五月婷婷久久丁香 | 91九色视频在线 | 日韩午夜精品 | 69xx视频 | 免费精品人在线二线三线 | 精品久久久久久久久久久久久 | 国产免费三级在线观看 | 成年人视频在线免费观看 | 国产精品久久久久久av | 免费在线观看av不卡 | 国产一区欧美二区 | 色欲综合视频天天天 | 在线观看日韩免费视频 | 久草在线免费新视频 | 亚洲精品久 | 伊人伊成久久人综合网小说 | a午夜电影| 一区 二区 精品 | 亚洲永久精品在线 | 成人黄色电影在线播放 | 久久热亚洲 | 韩国中文三级 |