如何在flink中处理kafkasink异常

时间:2020-04-22 17:36:08

标签: apache-kafka apache-flink

有时我看到以下错误,该错误占用了整个日志,最终作业被重新启动。

希望了解如何在flink中捕获这些异常。

错误org.apache.kafka.clients.producer.internals.Sender-[生产者clientId = abcedef] kafka生产者I / O线程中未捕获的错误: java.lang.IllegalStateException:找不到连接2的条目 在org.apache.kafka.clients.ClusterConnectionStates.nodeState(ClusterConnectionStates.java:339) 在org.apache.kafka.clients.ClusterConnectionStates.disconnected(ClusterConnectionStates.java:143) 在org.apache.kafka.clients.NetworkClient.initiateConnect(NetworkClient.java:926) 在org.apache.kafka.clients.NetworkClient.access $ 700(NetworkClient.java:67) 在org.apache.kafka.clients.NetworkClient $ DefaultMetadataUpdater.maybeUpdate(NetworkClient.java:1090) 在org.apache.kafka.clients.NetworkClient $ DefaultMetadataUpdater.maybeUpdate(NetworkClient.java:976) 在org.apache.kafka.clients.NetworkClient.poll(NetworkClient.java:533) 在org.apache.kafka.clients.producer.internals.Sender.run(Sender.java:311) 在org.apache.kafka.clients.producer.internals.Sender.run(Sender.java:235) 在java.lang.Thread.run(Thread.java:748)

0 个答案:

没有答案