有没有办法在Spring Cloud Data Flow中配置Kafka客户端超时设置?

时间:2016-10-04 09:36:29

标签: spring-cloud-stream spring-cloud-dataflow

启动Spring Cloud Data Flow流时,由于各种Kafka相关错误,应用程序通常无法部署在我的计算机上。例如: window.location.href

但我也看到了这个: org.springframework.cloud.stream.binder.BinderException: Cannot initialize binder [...] Caused by: kafka.common.KafkaException: fetching topic metadata for topics [Set(xxx)] from broker [List()] failed

在这两种情况下,Kafka进程都在运行(以及ZooKeeper),所以我假设有一些超时阈值已经通过。

genericKafka-specific配置似乎都不提供任何超时选项。

有什么方法可以影响Kafka客户放弃并假设经纪人离开的时间?

2 个答案:

答案 0 :(得分:1)

您可以使用kafka工具命令(例如./bin/kafka-topics.sh)获取主题信息吗?它似乎是Kafka配置问题,而不是可能的超时。

如果要在kafka生产者/消费者中设置任何通用属性(如connect.timeout.ms等),可以通过spring.cloud.stream.kafka.bindings.<channelName>.<producer/consumer>.configuration.<propertyName>=<propertyValue>

进行设置。

答案 1 :(得分:0)

似乎kafka经纪人没有正确运行,你可以尝试使用 bin/kafka-topics.sh --describe --zookeeper <your zookeeper host>:2181查看您的主题是否同步。