我正在使用Java 11和kafka-client 2.0.0。
我正在使用以下代码生成使用者:
public Consumer createConsumer(Properties properties,String regex) {
log.info("Creating consumer and listener..");
Consumer consumer = new KafkaConsumer<>(properties);
ConsumerRebalanceListener listener = new ConsumerRebalanceListener() {
@Override
public void onPartitionsRevoked(Collection<TopicPartition> partitions) {
log.info("The following partitions were revoked from consumer : {}", Arrays.toString(partitions.toArray()));
}
@Override
public void onPartitionsAssigned(Collection<TopicPartition> partitions) {
log.info("The following partitions were assigned to consumer : {}", Arrays.toString(partitions.toArray()));
}
};
consumer.subscribe(Pattern.compile(regex), listener);
log.info("consumer subscribed");
return consumer;
}
}
我的轮询循环在代码中的其他位置:
public <K, V> void startWorking(Consumer<K, V> consumer) {
try {
while (true) {
ConsumerRecords<K, V> records = consumer.poll(600);
if (records.count() > 0) {
log.info("Polled {} records", records.count());
} else {
log.info("polled 0 records.. going to sleep..");
Thread.sleep(200);
}
}
} catch (WakeupException | InterruptedException e) {
log.error("Consumer is shutting down", e);
} finally {
consumer.close();
}
}
当我运行代码并使用此功能时,将创建使用者,并且日志中包含以下消息:
Creating consumer and listener..
consumer subscribed
polled 0 records.. going to sleep..
polled 0 records.. going to sleep..
polled 0 records.. going to sleep..
该日志不包含有关分区分配/撤销的任何信息。
此外,我还可以在日志中看到使用者使用的属性(已设置group.id):
2020-07-09 14:31:07.959 DEBUG 7342 --- [ main] o.a.k.clients.consumer.ConsumerConfig : ConsumerConfig values:
auto.commit.interval.ms = 5000
auto.offset.reset = latest
bootstrap.servers = [server1:9092]
check.crcs = true
client.id =
group.id=mygroupid
key.deserializer=..
value.deserializer=..
因此,我尝试使用具有相同配置的kafka-console-consumer,以便从regex(mytopic。*)应该捕获的主题之一中消费(在这种情况下,我使用了主题mytopic-1):
/usr/bin/kafka-console-consumer.sh --bootstrap-server server1:9092 --topic mytopic-1 --property print.timestamp=true --consumer.config /data/scripts/kafka-consumer.properties --from-begining
我代码的其他部分有一个轮询循环,每10m超时一次。因此,最重要的是-没有将分区分配给Java使用者。监听器中的打印永远不会发生,并且使用者没有任何分区可以监听。
答案 0 :(得分:0)
似乎我的属性文件中缺少ssl属性。如果您使用security.protocol=ssl
,请不要忘记指定ssl
。如果Kafka使用ssl
,并且您尝试在未配置ssl
参数的情况下尝试访问它,似乎kafka-client API不会引发异常。