有时我看到以下错误,该错误占用了整个日志,最终作业被重新启动。
希望了解如何在flink中捕获这些异常。
错误org.apache.kafka.clients.producer.internals.Sender-[生产者clientId = abcedef] kafka生产者I / O线程中未捕获的错误: java.lang.IllegalStateException:找不到连接2的条目 在org.apache.kafka.clients.ClusterConnectionStates.nodeState(ClusterConnectionStates.java:339) 在org.apache.kafka.clients.ClusterConnectionStates.disconnected(ClusterConnectionStates.java:143) 在org.apache.kafka.clients.NetworkClient.initiateConnect(NetworkClient.java:926) 在org.apache.kafka.clients.NetworkClient.access $ 700(NetworkClient.java:67) 在org.apache.kafka.clients.NetworkClient $ DefaultMetadataUpdater.maybeUpdate(NetworkClient.java:1090) 在org.apache.kafka.clients.NetworkClient $ DefaultMetadataUpdater.maybeUpdate(NetworkClient.java:976) 在org.apache.kafka.clients.NetworkClient.poll(NetworkClient.java:533) 在org.apache.kafka.clients.producer.internals.Sender.run(Sender.java:311) 在org.apache.kafka.clients.producer.internals.Sender.run(Sender.java:235) 在java.lang.Thread.run(Thread.java:748)