日韩性视频-久久久蜜桃-www中文字幕-在线中文字幕av-亚洲欧美一区二区三区四区-撸久久-香蕉视频一区-久久无码精品丰满人妻-国产高潮av-激情福利社-日韩av网址大全-国产精品久久999-日本五十路在线-性欧美在线-久久99精品波多结衣一区-男女午夜免费视频-黑人极品ⅴideos精品欧美棵-人人妻人人澡人人爽精品欧美一区-日韩一区在线看-欧美a级在线免费观看

歡迎訪問 生活随笔!

生活随笔

當前位置: 首頁 >

大数据组件需要额外添加的依赖包汇总(持续更新中)

發布時間:2023/12/31 32 豆豆
生活随笔 收集整理的這篇文章主要介紹了 大数据组件需要额外添加的依赖包汇总(持续更新中) 小編覺得挺不錯的,現在分享給大家,幫大家做個參考.

?

現在FLINK已經被阿里收購了,所以會有blink的jar包

大數據組件依賴包來源具體的依賴包
Hadoop3.1.2用戶添加

javax.ws.rs-api-2.0-m11.jar

jersey-server-1.19.4.jar

(這兩個是yarn timelineserver需要)

thrift-0.13.0用戶添加
apache-zookeeper-3.6.0-bin/lib/用戶添加
ClickHouse用戶添加
spark-3.0.0-preview2-bin-hadoop3.2/jars/用戶添加

commons-lang3-3.11.jar

(與hive2.3.4配合使用時需要,與hive3.0.0配合使用時不需要)

nifi-1.11.4用戶添加
flink-1.12/lib

自帶

flink-dist_2.12-1.12-SNAPSHOT.jar ? ? ? ?

log4j-1.2-api-2.12.1.jar
flink-shaded-zookeeper-3.4.14.jar ? ? ? ?

log4j-api-2.12.1.jar
flink-table_2.12-1.12-SNAPSHOT.jar ? ? ?

log4j-core-2.12.1.jar
flink-table-blink_2.12-1.12-SNAPSHOT.jar ?

log4j-slf4j-impl-2.12.1.jar

用戶添加

hadoop-yarn-api-3.1.2.jar

hadoop-yarn-api-3.1.2-sources.jar

flink-shaded-hadoop-3-uber-3.1.1.7.0.3.0-79-7.0.jar

commons-cli-1.4.jar

javax.ws.rs-api-2.0.jar(flink shell?on yarn需要)

flink-queryable-state-runtime_2.12-1.12-SNAPSHOT.jar(query state需要,從flink-1.12/opt下面拷貝過去即可)

hive-common-3.1.2.jar
hive-exec-3.1.2.jar
flink-connector-hive_2.12-1.12.0.jar

flink-sql-connector-hive-3.1.2_2.12-1.12.0.jar

flink-sql-connector-hive-2.3.6_2.12-1.12.0.jar

以上4個都是Flink SQL Client讀取hive需要

?

flink-sql-connector-hbase-2.2_2.12-1.12.0.jar(Flink SQL Client讀取hbase需要)

?

?

flink-hadoop-compatibility(沒有驗證)

mysql-connector-java(flink寫入mysql需要)

?

kafka-clients-2.5.0.jar

flink-connector-kafka_2.12-1.12.0.jar(FLINK SQL Client連接kafka需要)

?

commons-compiler-3.0.11.jar(Flink SQL Client讀取kafka消費端數據需要)

janino-3.0.11.jar(Flink SQL Client讀取kafka消費端數據需要)

?

flink-sql-connector-mysql-cdc-1.1.1.jar(Flink CDC流程需要)

kafka_2.12-2.5.0/libs用戶添加

zookeeper-3.6.0.jar
zookeeper-jute-3.6.0.jar

kafka-connect-jdbc-5.5.1.jar(kafka connect功能需要)

mysql-connector-java-8.0.21.jar(被上面一個jar調用)

apache-hive-3.0.0-bin/lib用戶添加

mysql-connector-java-8.0.20.jar

guava-27.0-jre.jar

hbase-2.2.6/lib用戶添加

protobuf-java-2.5.0.jar

記得參考[1],需要遷移大量hadoop的工程過來(最佳匹配版本是hadoop2.8.5)

apache-tez-0.9.2-bin/lib/用戶添加

hadoop-hdfs-client-3.1.2.jar

hadoop-yarn-server-timeline-pluginstorage-3.1.2.jar

slf4j-api-1.7.25.jar
slf4j-log4j12-1.7.25.jar

sqoop-1.4.7.bin__hadoop-2.6.0/lib用戶添加mysql-connector-java-8.0.20.jar
hbase-client-1.2.0.jar
hbase-protocol-1.2.0.jar
hbase-common-1.2.0.jar
protobuf-java-2.5.0.jar
metrics-core-2.2.0.jar
htrace-core-3.1.0-incubating.jar
apache-tomcat-10.0.0-M5/lib用戶添加

?

舉例 :

flink sql client讀kafka出現下面報錯

碰到的報錯$FLINK_HOME/lib新增的依賴包
Java.lang.ClassCastException:org.codehaus.janino.CompilerFactory?cannot be cast to org.codehaus.commons.compiler.ICompilerFactory

janino-3.1.2.jar

commons-compiler-3.1.2.jar

java.lang.SecurityException: class "org.codehaus.commons.compiler.ICompiler"'s signer information does not match signer information of other classes in the same package
?

janino-3.1.2.jar

commons-compiler-3.0.7.jar

java.lang.ClassNotFoundException: org.codehaus.commons.compiler.ICompiler?

?

感覺這么嘗試下去不是辦法,后來去gitee上下載到了flink的源碼包

git checkout -b 1.12

grep -r codehaus

得到版本為:

flink-table/flink-table-planner/src/main/resources/META-INF/NOTICE:- org.codehaus.janino:janino:3.0.11
flink-table/flink-table-planner/src/main/resources/META-INF/NOTICE:- org.codehaus.janino:commons-compiler:3.0.11

最終得出結論需要去https://mvnrepository.com下載下面兩個。

commons-compiler-3.0.11.jar

janino-3.0.11.jar

?

Reference:

[1]The procedure WAL relies on the ability to hsync for proper operation during component failures

?

創作挑戰賽新人創作獎勵來咯,堅持創作打卡瓜分現金大獎

總結

以上是生活随笔為你收集整理的大数据组件需要额外添加的依赖包汇总(持续更新中)的全部內容,希望文章能夠幫你解決所遇到的問題。

如果覺得生活随笔網站內容還不錯,歡迎將生活随笔推薦給好友。