Hive 分区表
在hive中 創(chuàng)建一個表:
create external table track_info( ip string, country string, province string, city string, url string, time string, page string ) partitioned by (day string) row format delimited fields terminated by '\t' location '/project/trackinfo/';從HDFS中導入數(shù)據(jù):load data inpath 'hdfs://swarm-worker1:9000/project/input/etl' overwrite into table track_info partition(day='2013-07-21');
因為我們使用分區(qū),所以需要指定partition(day='2013-07-21')。
然后查看HDFS中的數(shù)據(jù):
發(fā)現(xiàn)會自動根據(jù)我們的分區(qū)字段作為我們的目錄,進入到目錄day=2013-07-21:
執(zhí)行查詢時,可以指定分區(qū):
select count(1) from track_info where day='2013-07-21';這就會生成一個mapreduce運行。
總結(jié)
- 上一篇: Hive 内部表与外部表
- 下一篇: Hive将查询结果保存到另一张表中