日韩性视频-久久久蜜桃-www中文字幕-在线中文字幕av-亚洲欧美一区二区三区四区-撸久久-香蕉视频一区-久久无码精品丰满人妻-国产高潮av-激情福利社-日韩av网址大全-国产精品久久999-日本五十路在线-性欧美在线-久久99精品波多结衣一区-男女午夜免费视频-黑人极品ⅴideos精品欧美棵-人人妻人人澡人人爽精品欧美一区-日韩一区在线看-欧美a级在线免费观看

歡迎訪問 生活随笔!

生活随笔

當前位置: 首頁 > 编程资源 > 编程问答 >内容正文

编程问答

flink读不到kafka数据问题

發布時間:2023/12/31 编程问答 24 豆豆
生活随笔 收集整理的這篇文章主要介紹了 flink读不到kafka数据问题 小編覺得挺不錯的,現在分享給大家,幫大家做個參考.

 

[1]搭建集群

[2]測試kafka集群沒問題后,

根據[3]中開始用flink消費kafka數據,發現啥也么有

調試辦法如下:

①去$KAFKA/logs下面看了下,是有相關主題的文件夾生成的.

② /kafka-console-consumer.sh --bootstrap-server Desktop:9091,Laptop:9092,Laptop:9093 --topic test-0921

依然沒有數據

③./kafka-console-consumer.sh --bootstrap-server Desktop:9091,Laptop:9092,Laptop:9093 --topic test-0921 --from-beginning

出來一大堆數據,以此判定kafka集群的數據生成是沒啥問題的.

④加入

props.put(ConsumerConfig.AUTO_OFFSET_RESET_CONFIG, "earliest");

代碼結束處刪除

keyedStream.writeAsText("/home/appleyuchi/KafkaFlinkTest");

 

終于有數據輸出了. 

總結

以上是生活随笔為你收集整理的flink读不到kafka数据问题的全部內容,希望文章能夠幫你解決所遇到的問題。

如果覺得生活随笔網站內容還不錯,歡迎將生活随笔推薦給好友。