卡夫卡听众不在听卡夫卡

时间:2020-07-09 15:38:39

标签: java apache-kafka

我正在使用Java 11和kafka-client 2.0.0。

我正在使用以下代码生成使用者:

    public Consumer createConsumer(Properties properties,String regex) {
        log.info("Creating consumer and listener..");
        Consumer consumer = new KafkaConsumer<>(properties);
        ConsumerRebalanceListener listener = new ConsumerRebalanceListener() {

            @Override
            public void onPartitionsRevoked(Collection<TopicPartition> partitions) {
                log.info("The following partitions were revoked from consumer : {}", Arrays.toString(partitions.toArray()));
            }

            @Override
            public void onPartitionsAssigned(Collection<TopicPartition> partitions) {
                log.info("The following partitions were assigned to consumer : {}", Arrays.toString(partitions.toArray()));
            }
        };
        consumer.subscribe(Pattern.compile(regex), listener);
        log.info("consumer subscribed");
        return consumer;
    }
}

我的轮询循环在代码中的其他位置:

public <K, V> void startWorking(Consumer<K, V> consumer) {
        try {
            while (true) {
                ConsumerRecords<K, V> records = consumer.poll(600);
                if (records.count() > 0) {
                    log.info("Polled {} records", records.count());

                } else {
                    log.info("polled 0 records.. going to sleep..");
                    Thread.sleep(200);
                }
            }
        } catch (WakeupException | InterruptedException e) {
            log.error("Consumer is shutting down", e);
        } finally {
            consumer.close();
        }
    }

当我运行代码并使用此功能时,将创建使用者,并且日志中包含以下消息:

    Creating consumer and listener..
    consumer subscribed
polled 0 records.. going to sleep..
polled 0 records.. going to sleep..
polled 0 records.. going to sleep..

该日志不包含有关分区分配/撤销的任何信息。

此外,我还可以在日志中看到使用者使用的属性(已设置group.id):

2020-07-09 14:31:07.959 DEBUG 7342 --- [           main] o.a.k.clients.consumer.ConsumerConfig    : ConsumerConfig values:
        auto.commit.interval.ms = 5000
        auto.offset.reset = latest
        bootstrap.servers = [server1:9092]
        check.crcs = true
        client.id =
        group.id=mygroupid
        key.deserializer=..
        value.deserializer=..

因此,我尝试使用具有相同配置的kafka-console-consumer,以便从regex(mytopic。*)应该捕获的主题之一中消费(在这种情况下,我使用了主题mytopic-1):

/usr/bin/kafka-console-consumer.sh --bootstrap-server server1:9092 --topic mytopic-1 --property print.timestamp=true --consumer.config /data/scripts/kafka-consumer.properties  --from-begining

我代码的其他部分有一个轮询循环,每10m超时一次。因此,最重要的是-没有将分区分配给Java使用者。监听器中的打印永远不会发生,并且使用者没有任何分区可以监听。

1 个答案:

答案 0 :(得分:0)

似乎我的属性文件中缺少ssl属性。如果您使用security.protocol=ssl,请不要忘记指定ssl。如果Kafka使用ssl,并且您尝试在未配置ssl参数的情况下尝试访问它,似乎kafka-client API不会引发异常。