Kafka Streams持久存储清理

时间:2018-12-13 20:50:17

标签: apache-kafka apache-kafka-streams

是否需要进行一些明确的清除,以防止每个持久性存储的大小增长太多?我目前正在使用它来计算DSL API中的聚合。

2 个答案:

答案 0 :(得分:2)

我们遇到了类似的问题,我们只是安排了清理商店的工作 在我们的处理器/变压器中。 只需实现您的isDataOld(nextValue),您就可以顺利进行。

@Override
public void init(ProcessorContext context) {
this.kvStore = (KeyValueStore<Key, Value>) this.context.getStateStore("KV_STORE_NAME");
this.context.schedule(60000, PunctuationType.STREAM_TIME, (timestamp) -> {
    KeyValueIterator<Key, Value> iterator = kvStore.all();
    while (iterator.hasNext()){
    KeyValue<Key,Value> nextValue = iterator.next();
    if isDataOld(nextValue)
       kvStore.delete(nextValue.key);
    }

});
}

答案 1 :(得分:0)

关于:

final var store =  Stores.persistentSessionStore(MATERIAL_STORE_NAME, Duration.ofDays(10));
    return Stores.sessionStoreBuilder(store,
            Serdes.Long(),
            keySpecificAvroSerde
    );