读取字段时出错' topic_metadata':读取大小为1139567的数组时出错,只有45个字节可用

时间:2016-06-02 12:38:22

标签: apache-kafka kafka-consumer-api

- 消费者

Properties props = new Properties();
        String groupId = "consumer-tutorial-group";
        List<String> topics = Arrays.asList("consumer-tutorial");
        props.put("bootstrap.servers", "192.168.1.75:9092");
        props.put("group.id", groupId);
        props.put("enable.auto.commit", "true");
        props.put("key.deserializer", StringDeserializer.class.getName());
        props.put("value.deserializer", StringDeserializer.class.getName());
        KafkaConsumer<String, String> consumer = new KafkaConsumer<String, String>(props);
        try {
            consumer.subscribe(topics);
            while (true) {

                ConsumerRecords<String, String> records = consumer.poll(Long.MAX_VALUE);
                for (ConsumerRecord<String, String> record : records)
                    System.out.printf("offset = %d, key = %s, value = %s", record.offset(), record.key(), record.value());


            }
        } catch (Exception e) {
            System.out.println(e.toString());
        } finally {
            consumer.close();
        }
    }

我正在尝试编写运行上面的代码,它是一个简单的消费者代码,尝试从主题中读取但我得到一个奇怪的例外,我无法处理它。

org.apache.kafka.common.protocol.types.SchemaException: Error reading field 'topic_metadata': Error reading array of size 1139567, only 45 bytes available

我引用你的生产者代码

- 生产

Properties props = new Properties();
        props.put("bootstrap.servers", "192.168.1.7:9092");
        props.put("acks", "all");
        props.put("retries", 0);
        props.put("batch.size", 16384);
        props.put("linger.ms", 1);
        props.put("buffer.memory", 33554432);
        props.put("key.serializer", "org.apache.kafka.common.serialization.StringSerializer");
        props.put("value.serializer", "org.apache.kafka.common.serialization.StringSerializer");

        Producer<String, String> producer = new KafkaProducer<String, String>(props);
        for(int i = 0; i < 100; i++)
            producer.send(new ProducerRecord<String, String>("consumer-tutorial", Integer.toString(i), Integer.toString(i)));

        producer.close();

这是kafka configs

- 启动zookeeper

bin / zookeeper-server-start.sh config / zookeeper.properties

- 启动Kafka服务器

bin / kafka-server-start.sh config / server.properties

- 创建主题

bin / kafka-topics.sh --create --topic consumer-tutorial --replication-factor 1 --partitions 3 --zookeeper 192.168.1.75:2181

- Kafka 0.10.0

<dependency>
           <groupId>org.apache.kafka</groupId>
           <artifactId>kafka-clients</artifactId>
           <version>0.10.0.0</version>
   </dependency>
   <dependency>
           <groupId>org.apache.kafka</groupId>
           <artifactId>kafka_2.11</artifactId>
           <version>0.10.0.0</version>
   </dependency>

3 个答案:

答案 0 :(得分:8)

在使用版本0.10.0.0的kafka_2.11工件时,我也遇到了同样的问题。但是一旦我将kafka服务器更改为0.10.0.0,这就解决了。早些时候我指的是0.9.0.1。它看起来像服务器和你的pom版本应该同步。

答案 1 :(得分:1)

我通过降级到kafka 0.9.0解决了我的问题,但它对我来说仍然不是一个有效的解决方案。如果有人知道如何在kafka 0.10.0版本中解决这个问题的有效方法,请随时发布。在此之前,这是我的解决方案

<dependency>
           <groupId>org.apache.kafka</groupId>
           <artifactId>kafka-clients</artifactId>
           <version>0.9.0.0</version>
   </dependency>
   <dependency>
           <groupId>org.apache.kafka</groupId>
           <artifactId>kafka_2.11</artifactId>
           <version>0.9.0.0</version>
   </dependency>

答案 2 :(得分:0)

我有同样的问题。客户端jar兼容性问题,因为我正在使用Kafka服务器9.0.0和Kafka客户端10.0.0.Basically Kafka 0.10.0引入了一种新的消息格式,并且无法从旧版本中读取主题元数据版本

<dependency>
 <groupId>org.springframework.kafka</groupId>
 <artifactId>spring-kafka</artifactId>
 <version>1.0.0.RELEASE</version> <!-- changed due lower version of the kafka server -->
</dependency>