有没有一种方法可以限制使用Kafka Streams在一个实例上管理的聚合的数量?

时间:2020-10-16 10:31:25

标签: apache-kafka kafka-consumer-api apache-kafka-streams

我想知道是否有人知道一个好的解决方案,用于指定应在Kafka Streams应用程序的一个实例上管理的最大聚合数。例如。此数字为200,则在收到导致创建聚集#201的新密钥后,应删除一些较旧的聚集。就我而言,更换政策并不重要。因此,应将200个可用汇总中的一些汇总设置为null。

不幸的是,Kafka流中仅内置了基于时间的保留。但是也许有一个很好的解决方法,根据聚合的数量来限制实例上的内存。

0 个答案:

没有答案