日韩性视频-久久久蜜桃-www中文字幕-在线中文字幕av-亚洲欧美一区二区三区四区-撸久久-香蕉视频一区-久久无码精品丰满人妻-国产高潮av-激情福利社-日韩av网址大全-国产精品久久999-日本五十路在线-性欧美在线-久久99精品波多结衣一区-男女午夜免费视频-黑人极品ⅴideos精品欧美棵-人人妻人人澡人人爽精品欧美一区-日韩一区在线看-欧美a级在线免费观看

歡迎訪問 生活随笔!

生活随笔

當前位置: 首頁 > 运维知识 > 数据库 >内容正文

数据库

SparkSQL之操作Hive

發布時間:2024/9/16 数据库 49 豆豆
生活随笔 收集整理的這篇文章主要介紹了 SparkSQL之操作Hive 小編覺得挺不錯的,現在分享給大家,幫大家做個參考.

首先啟動spark-shell:
命令:spark-shell --master local[2] --jars ~/software/mysql-connector-java-5.1.35.jar --driver-class-path /home/iie4bu/software/mysql-connector-java-5.1.35.jar
查看當前有哪些表:
spark.sql("show tables").show,結果如下:

查詢sal表:

按照customerid進行統計,然后獲取出不是空的customerid:
scala> spark.sql("select customerid,count(1) from sal group by customerid").filter("customerid is not null").show

將查詢結果再保存到Hive中

命令:scala> spark.sql("select customerid,count(1) from sal group by customerid").filter("customerid is not null").write.saveAsTable("hive_table_1"),報錯信息:

需要修改成:scala> spark.sql("select customerid,count(1) as mount from sal group by customerid").filter("customerid is not null").write.saveAsTable("hive_table_1")
這樣查詢表就可以看到剛創建的表了:

瀏覽器中查看

我們在瀏覽器中查看剛才的作業:ip:4040


200表示配置分區的數量。
這個值可以手動進行配置:
sparksession.sqlContext.setConf("spark.sql.shuffle.partitions", "10")

然后執行上面的保存成表的操作:
scala> spark.sql("select customerid,count(1) as mount from sal group by customerid").filter("customerid is not null").write.saveAsTable("hive_table_2")
這時再查看看瀏覽器,發現分區是10了

因此在生產環境中,注意設置這個值,默認是200

總結

以上是生活随笔為你收集整理的SparkSQL之操作Hive的全部內容,希望文章能夠幫你解決所遇到的問題。

如果覺得生活随笔網站內容還不錯,歡迎將生活随笔推薦給好友。