Kafka主题中丢失的消息

时间:2019-11-22 18:01:26

标签: java apache-kafka kafka-producer-api

尝试使用ProducerRecord中的时间戳记时;我发现了一些奇怪的东西。在从生产者发送少量消息之后,我运行了kafka-console-consumer.sh并验证了这些消息是否在主题中。我停下了制片人,等了一分钟。当我重新运行kafka-console-consumer.sh时,它没有显示我先前生成的消息。我还添加了producer.flush()和producer.close(),但结果仍然相同。

现在,当我停止使用timestamp字段时,一切工作正常,这使我相信带有timestamp的消息有些挑剔。

我正在使用Kafka_2.11-2.0.0(于2018年7月30日发布)

以下是示例代码。

import org.apache.kafka.clients.producer.KafkaProducer;
import org.apache.kafka.clients.producer.Producer;
import org.apache.kafka.clients.producer.ProducerConfig;
import org.apache.kafka.clients.producer.ProducerRecord;
import org.apache.kafka.common.header.internal.RecordHeaders;
import org.apache.kafka.common.serialization.StringSerializer;
import java.util.Properties;
import static java.lang.Thread.sleep;
public class KafkaProducerSample{
    public static void main(String[] args){
        String kafkaHost="sample:port";
        String notificationTopic="test";

        Properties props = new Properties();
        props.put(ProducerConfig.BOOTSTRAP_SERVERS_CONFIG, this.kafkaHost);
        props.put(ProducerConfig.ACKS_CONFIG, 1);
        props.put(ProducerConfig.RETRIES_CONFIG, Integer.MAX_VALUE);

        Producer<String, String> producer = new KafkaProducer(props, new StringSerialize(), new StringSerializer);

        RecordHeaders recordHeaders = new RecordHeader();
        ProducerRecord<String, String> record = new ProducerRecord(notificationTopic, null, 1574443515L, sampleKey, SampleValue);
        producer.send(record);
        sleep(1000);
    }
}

我按照以下方式运行控制台使用者

$KAFKA_HOME/bin/kafka-console-consumer.sh --bootstrap.server KAFKA_HOST:PORT --topic test --from-beginning

#output after running producer
test


#output 5mins after shutting down producer

1 个答案:

答案 0 :(得分:2)

您仅异步发送一条记录,但没有确认或刷新缓冲区。

您将需要发送更多记录,

producer.send(record).get();

producer.send(record);
producer.flush();

或(首选),在您的main方法中执行Runtime.addShutdownHook()以刷新并关闭生产者