Kafka消费者获取主题的元数据失败

时间:2015-06-02 20:57:29

标签: apache-kafka kafka-consumer-api

我正在尝试为第三方的Kafka和ZooKeeper服务器编写Java客户端。我能够列出和描述主题,但是当我尝试阅读任何主题时,会引发ClosedChannelException。我使用命令行客户端在这里重现它们。

$ bin/kafka-console-consumer.sh --zookeeper 255.255.255.255:2181 --topic eventbustopic
[2015-06-02 16:23:04,375] WARN Fetching topic metadata with correlation id 0 for topics [Set(eventbustopic)] from broker [id:1,host:SOME_HOST,port:9092] failed (kafka.client.ClientUtils$)
java.nio.channels.ClosedChannelException                                       
    at kafka.network.BlockingChannel.send(BlockingChannel.scala:100)           
    at kafka.producer.SyncProducer.liftedTree1$1(SyncProducer.scala:73)        
    at kafka.producer.SyncProducer.kafka$producer$SyncProducer$$doSend(SyncProducer.scala:72)
    at kafka.producer.SyncProducer.send(SyncProducer.scala:113)                
    at kafka.client.ClientUtils$.fetchTopicMetadata(ClientUtils.scala:58)        
    at kafka.client.ClientUtils$.fetchTopicMetadata(ClientUtils.scala:93)        
    at kafka.consumer.ConsumerFetcherManager$LeaderFinderThread.doWork(ConsumerFetcherManager.scala:66)
    at kafka.utils.ShutdownableThread.run(ShutdownableThread.scala:60)         
[2015-06-02 16:23:04,515] WARN Fetching topic metadata with correlation id 0 for topics [Set(eventbustopic)] from broker [id:0,host:SOME_HOST,port:9092] failed (kafka.client.ClientUtils$)
java.nio.channels.ClosedChannelException                                       
    at kafka.network.BlockingChannel.send(BlockingChannel.scala:100)           
    at kafka.producer.SyncProducer.liftedTree1$1(SyncProducer.scala:73)        
    at kafka.producer.SyncProducer.kafka$producer$SyncProducer$$doSend(SyncProducer.scala:72)
    at kafka.producer.SyncProducer.send(SyncProducer.scala:113)                
    at kafka.client.ClientUtils$.fetchTopicMetadata(ClientUtils.scala:58)        
    at kafka.client.ClientUtils$.fetchTopicMetadata(ClientUtils.scala:93)        
    at kafka.consumer.ConsumerFetcherManager$LeaderFinderThread.doWork(ConsumerFetcherManager.scala:66)
    at kafka.utils.ShutdownableThread.run(ShutdownableThread.scala:60)         

备用命令成功:

$ bin/kafka-topics.sh --describe --zookeeper 255.255.255.255:2181 --topic eventbustopic
Topic:eventbustopic   PartitionCount:2        ReplicationFactor:1     Configs:
    Topic: eventbustopic  Partition: 0    Leader: 1       Replicas: 1     Isr: 1
    Topic: eventbustopic  Partition: 1    Leader: 0       Replicas: 0     Isr: 0

$ bin/kafka-topics.sh --list --zookeeper 255.255.255.255:2181 --topic eventbustopic
eventbustopic

(ips被编辑并替换为255.255.255.255)

当我谷歌这个例外时,我看到生产者方面的问题 - 事实上,ClientUtils.fetchTopicMetadata的来源表明这主要是由生产者使用。

我担心的一个问题是,这可能是网络布局的一个产物:数据包被Haproxy破坏并通过VPN发送。

这到底在做什么?

4 个答案:

答案 0 :(得分:44)

代理告诉客户端应该使用哪个主机名来生成/使用消息。默认情况下,Kafka使用其运行的系统的主机名。如果客户端无法解析此主机名,则会出现此异常。

您可以尝试将Kafka配置中的advertised.host.name设置为客户端应使用的主机名/地址。

答案 1 :(得分:10)

以下是解决此问题的方法:

  1. 运行bin/kafka-server-stop.sh以停止运行kafka服务器。
  2. 通过添加一行来修改属性文件config/server.propertieslisteners=PLAINTEXT://{ip.of.your.kafka.server}:9092
  3. 重启kafka服务器。
  4. 由于没有lisener设置,kafka将使用java.net.InetAddress.getCanonicalHostName()来获取套接字服务器侦听的地址。

答案 2 :(得分:0)

Zookeeper存在问题。 255.255.255.255:2181不是有效的Zookeeper地址;这是您网络上的广播地址或子网掩码。要使工作正常,请找到运行Zookeeper的计算机的IP地址或主机名。

答案 3 :(得分:0)

在AWS上遇到此错误。问题是我对安全组过于严格,并将端口2181和9092设置为"我的IP"。这意味着kafka实例无法在同一个盒子上找到ZK。

解决方案 - 打开它 - 一点点。