在群集kafka服务器

时间:2016-11-03 05:31:35

标签: java stream apache-kafka kafka-producer-api apache-kafka-connect

Kafka在集群模式下运行在3台服务器上。

我通过以下命令行创建了主题(testdemo),

kafka-topics.bat --create --zookeeper localhost:2181 --replication-factor 1 --partitions 1 --topic testdemo 

我通过以下生产者属性

发布数据
Properties props = new Properties();
props.put("bootstrap.servers", "ip:9003");
props.put("metadata.broker.list", "ip1:9091, ip2:9092, ip3:9093");

props.put("producer.type", "async");
props.put("batch.size", "500");
props.put("compression.codec", "1");
props.put("compression.topic", topicName);
props.put("key.serializer", keySerializer);
props.put("value.serializer", ValueSerializer); 

在主题“获取以下错误”中发布数据时

 Error when sending message to topic testdemo with key: null, value: 9 bytes with error: 
 Failed to update metadata after 60000 ms. 
 (org.apache.kafka.clients.producer.internals.ErrorLoggingCallback) 

0 个答案:

没有答案
相关问题