由于我是kafka的新手,我的小组在Spring-boot应用程序上使用Spring-Integration-kafka:2.0.0.RELEASE。我能够根据这个例子here使用我的KafkaConsumer消费kafka消息。
对于这个spring-boot应用程序,我有我的Application.java
package hello;
import org.springframework.boot.SpringApplication;
import org.springframework.boot.autoconfigure.SpringBootApplication;
import java.util.concurrent.TimeUnit;
import hello.notification.Listener;
@SpringBootApplication
public class Application {
private Listener listener;
public void run(String... args) throws Exception {
this.listener.countDownLatch1.await(60, TimeUnit.SECONDS);
}
public static void main(String[] args) {
SpringApplication.run(Application.class, args);
}
}
这是我的KafkaConsumerConfig.java
package hello.notification;
import ....; //different imports
@Configuration
@EnableKafka
public class KafkaConsumerConfig {
@Bean
KafkaListenerContainerFactory<ConcurrentMessageListenerContainer<String, String>> kafkaListenerContainerFactory() {
ConcurrentKafkaListenerContainerFactory<String, String> factory = new ConcurrentKafkaListenerContainerFactory<>();
factory.setConsumerFactory(consumerFactory());
factory.setConcurrency(1);
factory.getContainerProperties().setPollTimeout(3000);
return factory;
}
@Bean
public ConsumerFactory<String, String> consumerFactory() {
Map<String, Object> propsMap = new HashMap<>();
propsMap.put(ConsumerConfig.BOOTSTRAP_SERVERS_CONFIG, "localhost:9092");
propsMap.put(ConsumerConfig.GROUP_ID_CONFIG, "group1");
propsMap.put(ConsumerConfig.ENABLE_AUTO_COMMIT_CONFIG, false);
//propsMap.put(ConsumerConfig.AUTO_COMMIT_INTERVAL_MS_CONFIG, 100);
propsMap.put(ConsumerConfig.SESSION_TIMEOUT_MS_CONFIG, 6000);
propsMap.put(ConsumerConfig.KEY_DESERIALIZER_CLASS_CONFIG, StringDeserializer.class);
propsMap.put(ConsumerConfig.VALUE_DESERIALIZER_CLASS_CONFIG, StringDeserializer.class);
return new DefaultKafkaConsumerFactory<>(propsMap);
}
@Bean
public Listener listener() {
return new Listener();
}
}
最后是我的Listener.java
package hello.notification;
import ...; // different imports
public class Listener {
public final CountDownLatch countDownLatch1 = new CountDownLatch(1);
@KafkaListener(topics = "topic1")
public void listen(ConsumerRecord<?, ?> record, Acknowledgment ack) {
System.out.println(record + " and " + ack);
// Place holder for "ack.acknowledge();"
countDownLatch1.countDown();
}
}
我的问题是:
1)在ConsumerConfig设置中,我已经将“ConsumerConfig.ENABLE_AUTO_COMMIT_CONFIG”设置为 false 并注释掉“ConsumerConfig.AUTO_COMMIT_INTERVAL_MS_CONFIG”,为什么它仍然会自动提交?(因为我不再如果我重新启动spring-boot应用程序,请查看消息 - 我希望它能够重新发送,直到它被提交为止)
2)为了手动提交,我想我只需要在我的Listener.listen中添加ack.acknowledge()(请看占位符)?除此之外我还有什么需要确保这是一个手动提交吗?
3)我想拥有最简单/最干净的kafkaconsumer,我想知道你认为我拥有的是最简单的方式,最初我是在寻找单线消费者,但是那里没有很多例子所以我坚持并发监听器。
感谢您的所有帮助和投入!
答案 0 :(得分:7)
为什么它仍会自动提交?
因为默认情况下KafkaMessageListenerContainer
提供了:
private AbstractMessageListenerContainer.AckMode ackMode = AckMode.BATCH;
除此之外我还有什么需要确保这是一个手动提交吗?
你必须切换到
ContainerProperties.setAckMode(AbstractMessageListenerContainer.AckMode.MANUAL)
我想知道你认为我拥有的是最简单的方式
那是对的。只需要习惯。
有关详细信息,请参阅Reference Manual