日韩性视频-久久久蜜桃-www中文字幕-在线中文字幕av-亚洲欧美一区二区三区四区-撸久久-香蕉视频一区-久久无码精品丰满人妻-国产高潮av-激情福利社-日韩av网址大全-国产精品久久999-日本五十路在线-性欧美在线-久久99精品波多结衣一区-男女午夜免费视频-黑人极品ⅴideos精品欧美棵-人人妻人人澡人人爽精品欧美一区-日韩一区在线看-欧美a级在线免费观看

歡迎訪問 生活随笔!

生活随笔

當前位置: 首頁 > 运维知识 > 数据库 >内容正文

数据库

安装hive出现的各种问题(这些问题出现在spark连接mysql的时候)

發布時間:2023/12/20 数据库 26 豆豆
生活随笔 收集整理的這篇文章主要介紹了 安装hive出现的各种问题(这些问题出现在spark连接mysql的时候) 小編覺得挺不錯的,現在分享給大家,幫大家做個參考.

首先在啟動hive的時候,進入debug模式,

hive -hiveconf hive.root.logger=DEBUG,console

才能出現下面的信息,終端上的信息會非常多,我們可以按下shift+pageup鍵,把信息拷貝到一個txt上,然后搜索error這個單詞所在位置,往往就是報錯信息,然后進行不斷地人機交互.

進入hive 執行show databases時報錯, 錯誤如下:

hive FAILED: SemanticException org.apache.hadoop.hive.ql.metadata.HiveException: java.lang.RuntimeException: Unable to instantiate org.apache.hadoop.hive.ql.metadata.SessionHiveMetaStoreClient

利用/usr/local/Cellar/hive/2.3.1/libexec/bin目錄下的hive進入hive,再執行show databases查看日志:

./hive -hiveconf hive.root.logger=DEBUG,console show databases;
  • 1
  • 2

(注:要執行./hiveserver2后再執行該命令)

報如下錯誤:

The specified datastore driver (“com.mysql.jdbc.Driver”) was not found in the CLASSPATH.

解決辦法:把mysql-connector-java-5.1.42.jar包放入libexec/lib目錄下。但解決完這個問題后仍然報錯,錯誤如下:

2017-12-05T11:52:50,446 WARN [ecd471e5-d4b9-40b4-bc9a-644fc411f415 main] metastore.MetaStoreDirectSql: Self-test query [select “DB_ID” from “DBS”] failed; direct SQL is disabled?
javax.jdo.JDODataStoreException: Error executing SQL query “select “DB_ID” from “DBS”“.?
at org.datanucleus.api.jdo.NucleusJDOHelper.getJDOExceptionForNucleusException(NucleusJDOHelper.java:543) ~[datanucleus-api-jdo-4.2.4.jar:?]?
……?
Caused by: com.mysql.jdbc.exceptions.jdbc4.MySQLSyntaxErrorException: Table ‘hive.dbs’ doesn’t exist?
……?
2017-12-05T11:52:50,457 ERROR [ecd471e5-d4b9-40b4-bc9a-644fc411f415 main] metastore.RetryingHMSHandler: MetaException(message:Version information not found in metastore. )

原因:沒生成源數據表,打開hive-site.xml,設置如下為true

<property><name>datanucleus.schema.autoCreateAll</name><value>true</value></property>

再執行命令(這個schematool的命令是hive源碼包的文件夾種的下面的的bin下面的一個文件,使用下面命令時會出來一大堆的空白,沒關系,是正常,一定要耐心等待啊):

schematool -dbType mysql -initSchema

總結

以上是生活随笔為你收集整理的安装hive出现的各种问题(这些问题出现在spark连接mysql的时候)的全部內容,希望文章能夠幫你解決所遇到的問題。

如果覺得生活随笔網站內容還不錯,歡迎將生活随笔推薦給好友。