无法在Spring-Boot App中使用Spring-integration-kafka禁用对Kafka消息的手动提交

时间:2017-01-06 02:02:55

标签: spring-boot apache-kafka spring-integration kafka-consumer-api spring-kafka

由于我是kafka的新手,我的小组在Spring-boot应用程序上使用Spring-Integration-kafka:2.0.0.RELEASE。我能够根据这个例子here使用我的KafkaConsumer消费kafka消息。

对于这个spring-boot应用程序,我有我的Application.java

package hello;

import org.springframework.boot.SpringApplication;
import org.springframework.boot.autoconfigure.SpringBootApplication;
import java.util.concurrent.TimeUnit;
import hello.notification.Listener;

@SpringBootApplication
public class Application {

    private Listener listener;

    public void run(String... args) throws Exception {
        this.listener.countDownLatch1.await(60, TimeUnit.SECONDS);
    }

    public static void main(String[] args) {
        SpringApplication.run(Application.class, args);
    }
}

这是我的KafkaConsumerConfig.java

package hello.notification;

import ....; //different imports

@Configuration
@EnableKafka
public class KafkaConsumerConfig {
    @Bean
    KafkaListenerContainerFactory<ConcurrentMessageListenerContainer<String, String>> kafkaListenerContainerFactory() {
        ConcurrentKafkaListenerContainerFactory<String, String> factory = new ConcurrentKafkaListenerContainerFactory<>();
        factory.setConsumerFactory(consumerFactory());
        factory.setConcurrency(1);
        factory.getContainerProperties().setPollTimeout(3000);
        return factory;
    }

    @Bean
    public ConsumerFactory<String, String> consumerFactory() {
        Map<String, Object> propsMap = new HashMap<>();
        propsMap.put(ConsumerConfig.BOOTSTRAP_SERVERS_CONFIG, "localhost:9092");
        propsMap.put(ConsumerConfig.GROUP_ID_CONFIG, "group1");
        propsMap.put(ConsumerConfig.ENABLE_AUTO_COMMIT_CONFIG, false);
        //propsMap.put(ConsumerConfig.AUTO_COMMIT_INTERVAL_MS_CONFIG, 100);
        propsMap.put(ConsumerConfig.SESSION_TIMEOUT_MS_CONFIG, 6000);
        propsMap.put(ConsumerConfig.KEY_DESERIALIZER_CLASS_CONFIG, StringDeserializer.class);
        propsMap.put(ConsumerConfig.VALUE_DESERIALIZER_CLASS_CONFIG, StringDeserializer.class);
        return new DefaultKafkaConsumerFactory<>(propsMap);
    }

    @Bean
    public Listener listener() {
        return new Listener();
    }
}

最后是我的Listener.java

package hello.notification;

import ...; // different imports

public class Listener {

    public final CountDownLatch countDownLatch1 = new CountDownLatch(1);

    @KafkaListener(topics = "topic1")
    public void listen(ConsumerRecord<?, ?> record, Acknowledgment ack) {
        System.out.println(record + " and " + ack);
                // Place holder for "ack.acknowledge();"
        countDownLatch1.countDown();
    } 
}

我的问题是:

1)在ConsumerConfig设置中,我已经将“ConsumerConfig.ENABLE_AUTO_COMMIT_CONFIG”设置为 false 并注释掉“ConsumerConfig.AUTO_COMMIT_INTERVAL_MS_CONFIG”,为什么它仍然会自动提交?(因为我不再如果我重新启动spring-boot应用程序,请查看消息 - 我希望它能够重新发送,直到它被提交为止)

2)为了手动提交,我想我只需要在我的Listener.listen中添加ack.acknowledge()(请看占位符)?除此之外我还有什么需要确保这是一个手动提交吗?

3)我想拥有最简单/最干净的kafkaconsumer,我想知道你认为我拥有的是最简单的方式,最初我是在寻找单线消费者,但是那里没有很多例子所以我坚持并发监听器。

感谢您的所有帮助和投入!

1 个答案:

答案 0 :(得分:7)

  

为什么它仍会自动提交?

因为默认情况下KafkaMessageListenerContainer提供了:

private AbstractMessageListenerContainer.AckMode ackMode = AckMode.BATCH;
  

除此之外我还有什么需要确保这是一个手动提交吗?

你必须切换到

ContainerProperties.setAckMode(AbstractMessageListenerContainer.AckMode.MANUAL)
  

我想知道你认为我拥有的是最简单的方式

那是对的。只需要习惯。

有关详细信息,请参阅Reference Manual