日韩性视频-久久久蜜桃-www中文字幕-在线中文字幕av-亚洲欧美一区二区三区四区-撸久久-香蕉视频一区-久久无码精品丰满人妻-国产高潮av-激情福利社-日韩av网址大全-国产精品久久999-日本五十路在线-性欧美在线-久久99精品波多结衣一区-男女午夜免费视频-黑人极品ⅴideos精品欧美棵-人人妻人人澡人人爽精品欧美一区-日韩一区在线看-欧美a级在线免费观看

歡迎訪問 生活随笔!

生活随笔

當前位置: 首頁 > 编程资源 > 编程问答 >内容正文

编程问答

JDBC 连接Hive 简单样例(开启Kerberos)

發布時間:2025/3/11 编程问答 46 豆豆
生活随笔 收集整理的這篇文章主要介紹了 JDBC 连接Hive 简单样例(开启Kerberos) 小編覺得挺不錯的,現在分享給大家,幫大家做個參考.

今天在移動的云平臺上通過jdbc連接hive,發現云平臺使用了 kerberos的認證。與寧波實驗環境不同。

發現一文解決了問題,轉載如下:

原文地址:http://blog.csdn.net/zengmingen/article/details/78605086

------------------------------

  • 運用 Ambari 搭建的HDP 集群,由于開啟了kerberos ,對外提供Hive數據時統一用JDBC 的方式,所以寫了下面這么一個簡單樣例供第三方數據接入參考。

代碼如下所示:

package com.bmsoft.hive.impl;import org.apache.hadoop.security.UserGroupInformation; import java.io.IOException; import java.sql.Connection; import java.sql.DriverManager; import java.sql.ResultSet; import java.sql.SQLException; import java.sql.Statement;/*** 簡單的jdbc連接hive實例(已開啟kerberos服務)*/public class HiveSimple2 {/*** 用于連接Hive所需的一些參數設置 driverName:用于連接hive的JDBC驅動名 When connecting to* HiveServer2 with Kerberos authentication, the URL format is:* jdbc:hive2://<host>:<port>/<db>;principal=* <Server_Principal_of_HiveServer2>*/private static String driverName = "org.apache.hive.jdbc.HiveDriver";// 注意:這里的principal是固定不變的,其指的hive服務所對應的principal,而不是用戶所對應的principalprivate static String url = "jdbc:hive2://bigdata40:10000/admin;principal=hive/bigdata40@BIGDATA.COM";private static String sql = "";private static ResultSet res;public static Connection get_conn() throws SQLException, ClassNotFoundException {/** 使用Hadoop安全登錄 **/org.apache.hadoop.conf.Configuration conf = new org.apache.hadoop.conf.Configuration();conf.set("hadoop.security.authentication", "Kerberos");if (System.getProperty("os.name").toLowerCase().startsWith("win")) {// 默認:這里不設置的話,win默認會到 C盤下讀取krb5.initSystem.setProperty("java.security.krb5.conf", "C:/Windows/krbconf/bms/krb5.ini");} // linux 會默認到 /etc/krb5.conf 中讀取krb5.conf,本文筆者已將該文件放到/etc/目錄下,因而這里便不用再設置了try {UserGroupInformation.setConfiguration(conf);UserGroupInformation.loginUserFromKeytab("test2/hdp39@BMSOFT.COM", "./conf/test2.keytab");} catch (IOException e1) {e1.printStackTrace();}Class.forName(driverName);Connection conn = DriverManager.getConnection(url);return conn;}/*** 查看數據庫下所有的表** @param statement* @return*/public static boolean show_tables(Statement statement) {sql = "SHOW TABLES";System.out.println("Running:" + sql);try {ResultSet res = statement.executeQuery(sql);System.out.println("執行“+sql+運行結果:");while (res.next()) {System.out.println(res.getString(1));}return true;} catch (SQLException e) {e.printStackTrace();}return false;}/*** 獲取表的描述信息** @param statement* @param tableName* @return*/public static boolean describ_table(Statement statement, String tableName) {sql = "DESCRIBE " + tableName;try {res = statement.executeQuery(sql);System.out.print(tableName + "描述信息:");while (res.next()) {System.out.println(res.getString(1) + "\t" + res.getString(2));}return true;} catch (SQLException e) {e.printStackTrace();}return false;}/*** 刪除表** @param statement* @param tableName* @return*/public static boolean drop_table(Statement statement, String tableName) {sql = "DROP TABLE IF EXISTS " + tableName;System.out.println("Running:" + sql);try {statement.execute(sql);System.out.println(tableName + "刪除成功");return true;} catch (SQLException e) {System.out.println(tableName + "刪除失敗");e.printStackTrace();}return false;}/*** 查看表數據** @param statement* @return*/public static boolean queryData(Statement statement, String tableName) {sql = "SELECT * FROM " + tableName + " LIMIT 20";System.out.println("Running:" + sql);try {res = statement.executeQuery(sql);System.out.println("執行“+sql+運行結果:");while (res.next()) {System.out.println(res.getString(1) + "," + res.getString(2) + "," + res.getString(3));}return true;} catch (SQLException e) {e.printStackTrace();}return false;}/*** 創建表** @param statement* @return*/public static boolean createTable(Statement statement, String tableName) {sql = "CREATE TABLE test_1m_test2 AS SELECT * FROM test_1m_test"; // 為了方便直接復制另一張表數據來創建表System.out.println("Running:" + sql);try {boolean execute = statement.execute(sql);System.out.println("執行結果 :" + execute);return true;} catch (SQLException e) {e.printStackTrace();}return false;}public static void main(String[] args) {try {Connection conn = get_conn();Statement stmt = conn.createStatement();// 創建的表名String tableName = "test_100m";show_tables(stmt);// describ_table(stmt, tableName);/** 刪除表 **/// drop_table(stmt, tableName);// show_tables(stmt);// queryData(stmt, tableName);createTable(stmt, tableName);conn.close();} catch (Exception e) {e.printStackTrace();} finally {System.out.println("!!!!!!END!!!!!!!!");}} }
  • 1
  • 2
  • 3
  • 4
  • 5
  • 6
  • 7
  • 8
  • 9
  • 10
  • 11
  • 12
  • 13
  • 14
  • 15
  • 16
  • 17
  • 18
  • 19
  • 20
  • 21
  • 22
  • 23
  • 24
  • 25
  • 26
  • 27
  • 28
  • 29
  • 30
  • 31
  • 32
  • 33
  • 34
  • 35
  • 36
  • 37
  • 38
  • 39
  • 40
  • 41
  • 42
  • 43
  • 44
  • 45
  • 46
  • 47
  • 48
  • 49
  • 50
  • 51
  • 52
  • 53
  • 54
  • 55
  • 56
  • 57
  • 58
  • 59
  • 60
  • 61
  • 62
  • 63
  • 64
  • 65
  • 66
  • 67
  • 68
  • 69
  • 70
  • 71
  • 72
  • 73
  • 74
  • 75
  • 76
  • 77
  • 78
  • 79
  • 80
  • 81
  • 82
  • 83
  • 84
  • 85
  • 86
  • 87
  • 88
  • 89
  • 90
  • 91
  • 92
  • 93
  • 94
  • 95
  • 96
  • 97
  • 98
  • 99
  • 100
  • 101
  • 102
  • 103
  • 104
  • 105
  • 106
  • 107
  • 108
  • 109
  • 110
  • 111
  • 112
  • 113
  • 114
  • 115
  • 116
  • 117
  • 118
  • 119
  • 120
  • 121
  • 122
  • 123
  • 124
  • 125
  • 126
  • 127
  • 128
  • 129
  • 130
  • 131
  • 132
  • 133
  • 134
  • 135
  • 136
  • 137
  • 138
  • 139
  • 140
  • 141
  • 142
  • 143
  • 144
  • 145
  • 146
  • 147
  • 148
  • 149
  • 150
  • 151
  • 152
  • 153
  • 154
  • 155
  • 156
  • 157
  • 158
  • 159
  • 160
  • 161
  • 162
  • 163
  • 164
  • 165
  • 166
  • 167
  • 168
  • 169
  • 170
  • 171
  • 172
  • 173
  • 174
  • 175
  • 176

pom.xml 文件如下所示:

<dependencies><!-- https://mvnrepository.com/artifact/org.apache.hive/hive-jdbc --><dependency><groupId>org.apache.hive</groupId><artifactId>hive-jdbc</artifactId><version>1.2.1</version></dependency><!-- https://mvnrepository.com/artifact/org.apache.hadoop/hadoop-common --><dependency><groupId>org.apache.hadoop</groupId><artifactId>hadoop-common</artifactId><version>2.7.1</version></dependency><!-- https://mvnrepository.com/artifact/org.apache.hive/hive-exec --><dependency><groupId>org.apache.hive</groupId><artifactId>hive-exec</artifactId><version>1.2.1</version></dependency><!-- https://mvnrepository.com/artifact/org.apache.hive/hive-metastore --><dependency><groupId>org.apache.hive</groupId><artifactId>hive-metastore</artifactId><version>1.2.1</version></dependency><!-- https://mvnrepository.com/artifact/org.apache.hive/hive-common --><dependency><groupId>org.apache.hive</groupId><artifactId>hive-common</artifactId><version>1.2.1</version></dependency><!-- https://mvnrepository.com/artifact/org.apache.hive/hive-service --><dependency><groupId>org.apache.hive</groupId><artifactId>hive-service</artifactId><version>1.2.1</version></dependency><dependency><groupId>log4j</groupId><artifactId>log4j</artifactId><version>1.2.17</version><type>jar</type></dependency><dependency><groupId>org.apache.hadoop</groupId><artifactId>hadoop-client</artifactId><version>2.7.3</version></dependency>
  • 1
  • 2
  • 3
  • 4
  • 5
  • 6
  • 7
  • 8
  • 9
  • 10
  • 11
  • 12
  • 13
  • 14
  • 15
  • 16
  • 17
  • 18
  • 19
  • 20
  • 21
  • 22
  • 23
  • 24
  • 25
  • 26
  • 27
  • 28
  • 29
  • 30
  • 31
  • 32
  • 33
  • 34
  • 35
  • 36
  • 37
  • 38
  • 39
  • 40
  • 41
  • 42
  • 43
  • 44
  • 45
  • 46
  • 47
  • 48
  • 49

參考文檔:?
https://cwiki.apache.org/confluence/display/Hive/HiveServer2+Clients

文檔其中比較值得注意的一點是:

JDBC Client Setup for a Secure Cluster When connecting to HiveServer2 with Kerberos authentication, the URL format is: jdbc:hive2://<host>:<port>/<db>;principal=<Server_Principal_of_HiveServer2>
  • 1
  • 2
  • 3
  • 這里的principal是固定不變的,其指的hive服務所對應的principal,而不是用戶所對應的principal; 對于這里的可以為不存在的數據庫,但是如果這么做那么在查詢表的時候則需要指出其所在的庫(如db.tablename),否則默認會查詢所對應的表。

總結

以上是生活随笔為你收集整理的JDBC 连接Hive 简单样例(开启Kerberos)的全部內容,希望文章能夠幫你解決所遇到的問題。

如果覺得生活随笔網站內容還不錯,歡迎將生活随笔推薦給好友。

主站蜘蛛池模板: 美日韩精品 | 欧美一区二区免费视频 | 国产精品久久久久99 | 精品久久久久久无码国产 | 极品尤物一区二区三区 | 免费二区 | 人物动物互动39集免费观看 | 亚洲私拍 | 成人亚洲综合 | 伊人久久综合影院 | 观看免费av | 日本电影一区 | 国产高清无遮挡 | 国产色视频| 99视频导航 | 黄色在线观看视频网站 | 日韩欧美精品一区 | 裸体视频软件 | 国产精品一区二区免费看 | 在线不卡免费av | 色综合久久久久无码专区 | 精品国产鲁一鲁一区二区三区 | 中国久久| 国产免费播放 | 毛片天天看 | 天堂网视频在线观看 | 久久亚洲精品中文字幕 | 国产成人精品一区二区无码呦 | 国产乱真实合集 | 色网在线看 | 黄色亚洲精品 | 日本在线免费观看视频 | 亚洲成熟少妇视频在线观看 | 1024毛片| 天堂网一区二区三区 | www.亚洲欧美 | 日韩深夜视频 | 国产一区二区三区免费观看 | 精品一区不卡 | 51精产品一区一区三区 | 2019日韩中文字幕 | 色综合视频在线观看 | 亚洲国产片| 精品人妻无码一区二区性色 | 天堂av手机版 | 欧美中文字幕一区二区三区 | 日本成人在线看 | 国产在线观看免费网站 | 一炮成瘾1v1高h | 91麻豆产精品久久久久久 | 中文字幕精品三区 | 日韩成人在线视频 | 日韩激情小视频 | 久久久久久久人妻无码中文字幕爆 | 性欧美videossex精品 | 国产精品玖玖玖 | 日日夜夜操操操 | 亚洲人成人网 | 亚洲老女人 | 国产精品老牛影视 | 国产成人精品一区二区三区在线 | 欧美另类人妖 | 黄频视频在线观看 | 少妇视频一区 | 少妇久久久久久久久久 | 男人免费视频 | 姑娘第5集在线观看免费 | 欧美美女性生活 | 毛片随便看 | 欧美色国| 久久国产加勒比精品无码 | 欧美成人精品欧美一级乱 | 婷婷丁香社区 | 久久国产精品免费视频 | 国产一级淫片a | 午夜爱爱网站 | 麻豆精品国产传媒 | 在线黄色网 | 粗大挺进潘金莲身体在线播放 | 精品久久久网站 | 亚洲第六页 | 污视频软件在线观看 | 欧美成年视频 | 欧美大尺度做爰啪啪床戏明星 | 成人免费影片 | 日韩av在线一区二区 | 久久精品色 | 中国xxxx性xxxx产国 | 久久艹国产 | 国产美女久久久久久 | 国产91白丝在一线播放 | 亚洲一区二区久久久 | 日韩素人 | 国产精品欧美激情在线 | 天堂av在线免费观看 | 国产欧美一区二区三区免费看 | 久久久精品视频免费 | 成人免费观看视频网站 | 日本www视频在线观看 |