Kafka生产者无法按主题整理邮件,分区由于:获取主题的主题元数据[Set(logmessage)]

时间:2016-10-07 14:08:16

标签: apache-kafka partition kafka-producer-api

我正在尝试向主题发送消息,这是我偶尔得到的错误。

请提供您认为可以解决此问题的任何建议。 这是错误的堆栈跟踪:

  • 无法按主题整理邮件,分区由于:获取主题 主题的元数据[Set(logmessage)]来自经纪人 [ArrayBuffer(id:0,主机:XX.X.XX.XX,端口:XX)]失败2016-10-05 21:49:04 - 从主题[Set(logmessage)]获取主题元数据 broker [ArrayBuffer(id:0,host:host:XX.X.XX.XX,port:XX] failed kafka.common.KafkaException:获取主题的主题元数据 来自经纪人的[Set(logmessage)] [ArrayBuffer(id:0,host:XX.X.XX.XX,port:XX)失败了 kafka.client.ClientUtils $ .fetchTopicMetadata(ClientUtils.scala:72)at at kafka.producer.BrokerPartitionInfo.updateInfo(BrokerPartitionInfo.scala:82) 在 kafka.producer.async.DefaultEventHandler $$ anonfun $处理$ 2.适用$ MCV $ SP(DefaultEventHandler.scala:78) 在kafka.utils.Utils $ .swallow(Utils.scala:172)at kafka.utils.Logging $ class.swallowError(Logging.scala:106)at kafka.utils.Utils $ .swallowError(Utils.scala:45)at kafka.producer.async.DefaultEventHandler.handle(DefaultEventHandler.scala:78) 在kafka.producer.Producer.send(Producer.scala:77)at kafka.javaapi.producer.Producer.send(Producer.scala:33)at com.startsmartinc.logger.SSLogger.logMessageBundleBolt(SSLogger.java:222) 在 com.ssi.parsing.MessageBundle.logEventstoAPI(MessageBundle.java:414) 在 com.ssi.parsing.MessageBundle.processBundle(MessageBundle.java:113) 在com.ssi.parsing.MessageBundle.Parse(MessageBundle.java:42)at com.ssi.threads.WorkerThreads.run(WorkerThreads.java:29)at java.util.concurrent.ThreadPoolExecutor.runWorker(ThreadPoolExecutor.java:1142) 在 java.util.concurrent.ThreadPoolExecutor中的$ Worker.run(ThreadPoolExecutor.java:617) 在java.lang.Thread.run(Thread.java:745)引起: java.nio.channels.ClosedChannelException at kafka.network.BlockingChannel.send(BlockingChannel.scala:100)at kafka.producer.SyncProducer.liftedTree1 $ 1(SyncProducer.scala:73)at at kafka.producer.SyncProducer.kafka $制片$ SyncProducer $$ doSend(SyncProducer.scala:72) 在kafka.producer.SyncProducer.send(SyncProducer.scala:113)at kafka.client.ClientUtils $ .fetchTopicMetadata(ClientUtils.scala:58)

0 个答案:

没有答案