例如,我看到这样的异常:
org.apache.kafka.common.errors.RecordTooLargeException: The message is 10000190 bytes when serialized which is larger than the maximum request size you have configured with the max.request.size configuration.
是否有一种方法可以进一步了解导致此异常的ProducerRecord?
在Supervisor
或recoverWith
中,我只有关于异常的信息。
我无法使用try catch
包装任何内容,因为我使用的是内置的Kafka Flow或Kafka Sink。可能我需要放弃这种集成并手动使用Kafka生产者,因为我看不到其他解决方案。