日韩性视频-久久久蜜桃-www中文字幕-在线中文字幕av-亚洲欧美一区二区三区四区-撸久久-香蕉视频一区-久久无码精品丰满人妻-国产高潮av-激情福利社-日韩av网址大全-国产精品久久999-日本五十路在线-性欧美在线-久久99精品波多结衣一区-男女午夜免费视频-黑人极品ⅴideos精品欧美棵-人人妻人人澡人人爽精品欧美一区-日韩一区在线看-欧美a级在线免费观看

歡迎訪問 生活随笔!

生活随笔

當前位置: 首頁 > 编程资源 > 编程问答 >内容正文

编程问答

流计算程序不报错,但是没有输出的一些原因(持续更新中)

發布時間:2023/12/31 编程问答 35 豆豆
生活随笔 收集整理的這篇文章主要介紹了 流计算程序不报错,但是没有输出的一些原因(持续更新中) 小編覺得挺不錯的,現在分享給大家,幫大家做個參考.

①集群運行后打印的內容在$FLINK_HOME/logs中的.out文件中[2]
或者在$HADOOP_HOME/logs的.out文件里面(尤其是on yarn模式)
②沒有print()語句
③忘記寫execute()
④keyby()或者filter注釋后,嘗試重新運行
⑤沒有對窗口進行trigger[1]
⑥沒有滿足waterMark觸發條件
⑦沒有滿足window的觸發條件
⑧輸出的sink配置和自己查詢的是否一致
表轉流輸出,那么代碼中需要進行兩次execute:

⑩kafka的consumer.properties中的group.id指的是命令行消費的時候的group.id

代碼中如果運行一次有消費,運行第二次沒有輸出了,此時可以通過修改group.id來再次輸出。

因為綁定group.id以后,會導致確保該group中的數據只被消費一次。

? topic寫錯

? orc partition沒寫導致hive查不到的

? interval太大導致hive查不到
?SASL認證出錯

?集群信息寫錯

?

?

1.tEnv.executeSql(createTable)
2.bsEnv.execute("Flink SQL DDL")

該種情況的完整用法見

https://gitee.com/appleyuchi/Flink_Code/blob/master/flink讀kafka/Scala/src/main/scala/FlinkKafkaDDLDemo.scala

⑩時區bug導致沒有輸出的[3]

?flink sql client中的

'connector.startup-mode' = 'latest-offset'

改成

'connector.startup-mode' = 'earliest-offset'

?

Reference:

[1]flink的datastream進行join操作沒有輸出結果一例

[2]flink中datastream和dataset各自print()的異同

[3]flink寫入hive的時區問題

總結

以上是生活随笔為你收集整理的流计算程序不报错,但是没有输出的一些原因(持续更新中)的全部內容,希望文章能夠幫你解決所遇到的問題。

如果覺得生活随笔網站內容還不錯,歡迎將生活随笔推薦給好友。