流计算程序不报错,但是没有输出的一些原因(持续更新中)
①集群運(yùn)行后打印的內(nèi)容在$FLINK_HOME/logs中的.out文件中[2]
或者在$HADOOP_HOME/logs的.out文件里面(尤其是on yarn模式)
②沒(méi)有print()語(yǔ)句
③忘記寫(xiě)execute()
④keyby()或者filter注釋后,嘗試重新運(yùn)行
⑤沒(méi)有對(duì)窗口進(jìn)行trigger[1]
⑥沒(méi)有滿足waterMark觸發(fā)條件
⑦沒(méi)有滿足window的觸發(fā)條件
⑧輸出的sink配置和自己查詢的是否一致
⑨表轉(zhuǎn)流輸出,那么代碼中需要進(jìn)行兩次execute:
⑩kafka的consumer.properties中的group.id指的是命令行消費(fèi)的時(shí)候的group.id
代碼中如果運(yùn)行一次有消費(fèi),運(yùn)行第二次沒(méi)有輸出了,此時(shí)可以通過(guò)修改group.id來(lái)再次輸出。
因?yàn)榻壎╣roup.id以后,會(huì)導(dǎo)致確保該group中的數(shù)據(jù)只被消費(fèi)一次。
? topic寫(xiě)錯(cuò)
? orc partition沒(méi)寫(xiě)導(dǎo)致hive查不到的
? interval太大導(dǎo)致hive查不到
?SASL認(rèn)證出錯(cuò)
?集群信息寫(xiě)錯(cuò)
?
?
1.tEnv.executeSql(createTable)
2.bsEnv.execute("Flink SQL DDL")
該種情況的完整用法見(jiàn)
https://gitee.com/appleyuchi/Flink_Code/blob/master/flink讀kafka/Scala/src/main/scala/FlinkKafkaDDLDemo.scala
⑩時(shí)區(qū)bug導(dǎo)致沒(méi)有輸出的[3]
?flink sql client中的
'connector.startup-mode' = 'latest-offset'
改成
'connector.startup-mode' = 'earliest-offset'
?
Reference:
[1]flink的datastream進(jìn)行join操作沒(méi)有輸出結(jié)果一例
[2]flink中datastream和dataset各自print()的異同
[3]flink寫(xiě)入hive的時(shí)區(qū)問(wèn)題
總結(jié)
以上是生活随笔為你收集整理的流计算程序不报错,但是没有输出的一些原因(持续更新中)的全部?jī)?nèi)容,希望文章能夠幫你解決所遇到的問(wèn)題。
- 上一篇: dnf至尊宝号什么意思 地下城与勇士
- 下一篇: Caused by: java.net.