Kafka保留政策没有按预期工作

时间:2017-02-28 16:17:37

标签: apache-kafka purge

我想为我们的一些人实现数据重播,为此,我需要使用Kafka保留策略(因为我使用的是连接,我需要窗口时间准确)。 附:我使用的是Kafka版本0.10.1.1

我将数据发送到这样的主题:

 kafkaProducer.send(
                    new ProducerRecord<>(kafkaTopic, 0, (long) r.get("date_time") ,r.get(keyFieldName).toString(), r)
            );

我创建了这样的主题:

  

kafka-topics --create --zookeeper localhost:2181 --rerelication-factor 1 --partitions 1 --topic myTopic
      kafka-topics --zookeeper localhost --alter --topic myTopic --config retention.ms = 172800000 kafka-topics --zookeeper localhost --alter --topic myTopic --config segment.ms = 172800000

因此,通过以上设置,我应该将我的主题的保留时间设置为48小时。

我扩展TimestampExtractor以记录每条消息的实际时间。

public class ConsumerRecordOrWallclockTimestampExtractor implements TimestampExtractor {
    private static final Logger LOG = LoggerFactory.getLogger(ConsumerRecordOrWallclockTimestampExtractor.class);
    @Override
    public long extract(ConsumerRecord<Object, Object> consumerRecord) {
        LOG.info("TIMESTAMP : " + consumerRecord.timestamp() + " - Human readable : " + new Date(consumerRecord.timestamp()));
        return consumerRecord.timestamp() >= 0.1 ? consumerRecord.timestamp() : System.currentTimeMillis();
    }
}

为了测试,我已经向我的主题发送了4条消息,我收到了4条日志消息。

  

2017-02-28 10:23:39 INFO   ConsumerRecordOrWallclockTimestampExtractor:21 - TIMESTAMP:   1488295086292人类可读 - 2月28日10:18:06 EST 2017    2017年2月28日   10:24:01 INFO ConsumerRecordOrWallclockTimestampExtractor:21 -   TIMESTAMP:1483272000000 Human readble -Sun Jan 01 07:00:00 EST 2017   2017-02-28 10:26:11 INFO   ConsumerRecordOrWallclockTimestampExtractor:21 - TIMESTAMP:   1485820800000人类可读 - 1月30日19:00:00 EST 2017   2017年2月28日   10:27:22 INFO ConsumerRecordOrWallclockTimestampExtractor:21 -   时间:1488295604411人类可读 - 2017年2月28日10:26:44 2017年

所以基于Kafka's retention policy我希望看到我的两条消息在5分钟后被清除/删除(因为它们是1月1日和1月30日的第2和第3消息)。但是我尝试将我的主题消耗了一个小时,每次消耗我的话题时我都收到了所有4条消息。

  

kafka-avro-console-consumer --zookeeper localhost:2181    - 从开始 - 主题myTopic

我的Kafka配置是这样的:

############################# Log Retention Policy #############################

# The following configurations control the disposal of log segments. The policy can
# be set to delete segments after a period of time, or after a given size has accumulated.
# A segment will be deleted whenever *either* of these criteria are met. Deletion always happens
# from the end of the log.

# The minimum age of a log file to be eligible for deletion
log.retention.hours=168

# A size-based retention policy for logs. Segments are pruned from the log as long as the remaining
# segments don't drop below log.retention.bytes.
#log.retention.bytes=1073741824

# The maximum size of a log segment file. When this size is reached a new log segment will be created.
log.segment.bytes=1073741824

# The interval at which log segments are checked to see if they can be deleted according
# to the retention policies
log.retention.check.interval.ms=300000

我做错了什么或者我错过了什么?

1 个答案:

答案 0 :(得分:10)

Kafka通过删除日志段来实施其保留策略。 Kafka从不删除活动段,该段是将附加发送到分区的新消息的段。卡夫卡只删除旧段。当新消息发送到分区时,Kafka将活动段滚动到旧段中,并且

  • 包含新邮件的活动细分受众群的大小将超过#standardSQL SELECT TIMESTAMP_SECONDS(start_time_sec) AS timestamp FROM ( SELECT 1488303123 AS start_time_sec );
  • 活动细分中第一条消息的时间戳早于#standardSQL SELECT EXTRACT(DATE FROM TIMESTAMP_SECONDS(start_time_sec) AT TIME ZONE 'America/Los_Angeles') AS date FROM ( SELECT 1488303123 AS start_time_sec ); (默认为7天)

因此,在您的示例中,您必须在2017年2月28日10:18:06之后等待7天,发送新消息,然后将删除所有4条初始消息。