日韩性视频-久久久蜜桃-www中文字幕-在线中文字幕av-亚洲欧美一区二区三区四区-撸久久-香蕉视频一区-久久无码精品丰满人妻-国产高潮av-激情福利社-日韩av网址大全-国产精品久久999-日本五十路在线-性欧美在线-久久99精品波多结衣一区-男女午夜免费视频-黑人极品ⅴideos精品欧美棵-人人妻人人澡人人爽精品欧美一区-日韩一区在线看-欧美a级在线免费观看

歡迎訪問 生活随笔!

生活随笔

當前位置: 首頁 > 编程资源 > 编程问答 >内容正文

编程问答

java.lang.NoSuchMethodError: org.apache.kafka.clients.consumer.KafkaConsumer.assign(Ljava/util/List

發布時間:2024/3/24 编程问答 35 豆豆
生活随笔 收集整理的這篇文章主要介紹了 java.lang.NoSuchMethodError: org.apache.kafka.clients.consumer.KafkaConsumer.assign(Ljava/util/List 小編覺得挺不錯的,現在分享給大家,幫大家做個參考.
版權聲明:本文為博主原創文章,遵循 CC 4.0 BY-SA 版權協議,轉載請附上原文出處鏈接和本聲明。 本文鏈接:

?Flink入門程序異常,記錄一下跟大家分享。

SLF4J: Failed to load class "org.slf4j.impl.StaticLoggerBinder".
SLF4J: Defaulting to no-operation (NOP) logger implementation
SLF4J: See http://www.slf4j.org/codes.html#StaticLoggerBinder for further details.
org.apache.flink.runtime.client.JobExecutionException: java.lang.NoSuchMethodError: org.apache.kafka.clients.consumer.KafkaConsumer.assign(Ljava/util/List;)V
?? ?at org.apache.flink.runtime.minicluster.MiniCluster.executeJobBlocking(MiniCluster.java:623)
?? ?at org.apache.flink.streaming.api.environment.LocalStreamEnvironment.execute(LocalStreamEnvironment.java:123)
?? ?at org.apache.flink.streaming.api.environment.StreamExecutionEnvironment.execute(StreamExecutionEnvironment.java:1511)
?? ?at Streaming.ReadFromKafka.main(ReadFromKafka.java:41)
Caused by: java.lang.NoSuchMethodError: org.apache.kafka.clients.consumer.KafkaConsumer.assign(Ljava/util/List;)V
?? ?at org.apache.flink.streaming.connectors.kafka.internal.KafkaConsumerCallBridge.assignPartitions(KafkaConsumerCallBridge.java:42)
?? ?at org.apache.flink.streaming.connectors.kafka.internal.KafkaConsumerThread.reassignPartitions(KafkaConsumerThread.java:405)
?? ?at org.apache.flink.streaming.connectors.kafka.internal.KafkaConsumerThread.run(KafkaConsumerThread.java:243)

當各位遇到這個錯誤的時候,相信你們也是寫的Flink的入門程序,讀取或者寫入kafka。網上的資料少之甚少,經過一番尋找還是找到了一點東西。希望大家以后可以少走彎路。

?

【尖叫提示】:這是入門級別的一個大坑。

<dependency>

<groupId>org.apache.kafka</groupId>

<artifactId>kafka-clients</artifactId>

<version>0.9.0.1</version>

</dependency>

這個kafka-clients的版本一定要寫這個。

如果寫下面這個,則會報錯:具體原因應該是1.0.0的不支持了。

org.apache.flink.runtime.client.JobExecutionException: java.lang.NoSuchMethodError: org.apache.kafka.clients.consumer.KafkaConsumer.assign(Ljava/util/List;)V

<dependency>

<groupId>org.apache.flink</groupId>

<artifactId>flink-clients_2.11</artifactId>

<version>1.6.0</version>

</dependency>

?

具體的代碼如下:

  • package Streaming;
  • import org.apache.flink.api.common.functions.MapFunction;
  • import org.apache.flink.api.common.serialization.SimpleStringSchema;
  • import org.apache.flink.streaming.api.datastream.DataStream;
  • import org.apache.flink.streaming.api.environment.StreamExecutionEnvironment;
  • import org.apache.flink.streaming.connectors.kafka.FlinkKafkaConsumer09;
  • import java.util.Properties;
  • /**
  • * Created with IntelliJ IDEA.
  • * User: @ziyu freedomziyua@gmail.com
  • * Date: 2018-09-10
  • * Time: 11:25
  • * Description: kafka.Streaming.ReadFromKafka
  • */
  • public class ReadFromKafka {
  • public static void main(String args[]) throws Exception{
  • StreamExecutionEnvironment env = StreamExecutionEnvironment.getExecutionEnvironment();
  • Properties properties = new Properties();
  • properties.setProperty("bootstrap.servers", "192.168.2.41:9092");
  • properties.setProperty("group.id", "test");
  • DataStream<String> stream = env
  • .addSource(new FlinkKafkaConsumer09("flink-demo", new SimpleStringSchema(), properties));
  • stream.map(new MapFunction<String, String>() {
  • private static final long serialVersionUID = -6867736771747690202L;
  • public String map(String value) throws Exception {
  • return "Stream Value: " + value;
  • }
  • }).print();
  • try {
  • env.execute();
  • } catch (Exception e) {
  • e.printStackTrace();
  • }
  • }
  • }
  • 如果運行的話,只要環境修改好了,然后引入Flink連接kafka 的依賴

  • <properties>
  • <project.build.sourceEncoding>UTF-8</project.build.sourceEncoding>
  • <flink.version>1.6.0</flink.version>
  • </properties>
  • <dependencies>
  • <dependency>
  • <groupId>org.apache.flink</groupId>
  • <artifactId>flink-java</artifactId>
  • <version>${flink.version}</version>
  • </dependency>
  • <dependency>
  • <groupId>org.apache.flink</groupId>
  • <artifactId>flink-streaming-java_2.11</artifactId>
  • <version>${flink.version}</version>
  • </dependency>
  • <dependency>
  • <groupId>org.apache.kafka</groupId>
  • <artifactId>kafka-clients</artifactId>
  • <version>0.9.0.1</version>
  • </dependency>
  • <!-- Flink Connector Kafka | exclude Kafka implementation to use MapR -->
  • <dependency>
  • <groupId>org.apache.flink</groupId>
  • <artifactId>flink-connector-kafka-0.10_2.11</artifactId>
  • <version>${flink.version}</version>
  • </dependency>
  • </dependencies>
  • 【運行】

    1.kafka創建flink-demo 的主題

    2.啟動kafka 的生產者和消費者,觀察時候可以互通

    3.如果上述都沒問題,啟動Flink

    4.運行本地程序,觀察輸出即可

    ?

    以上為初學Flink遇到的一個比較棘手的問題,希望大家少走彎路。

    總結

    以上是生活随笔為你收集整理的java.lang.NoSuchMethodError: org.apache.kafka.clients.consumer.KafkaConsumer.assign(Ljava/util/List的全部內容,希望文章能夠幫你解決所遇到的問題。

    如果覺得生活随笔網站內容還不錯,歡迎將生活随笔推薦給好友。