标签: apache-kafka kafka-consumer-api apache-kafka-streams
我想知道是否有人知道一个好的解决方案,用于指定应在Kafka Streams应用程序的一个实例上管理的最大聚合数。例如。此数字为200,则在收到导致创建聚集#201的新密钥后,应删除一些较旧的聚集。就我而言,更换政策并不重要。因此,应将200个可用汇总中的一些汇总设置为null。
不幸的是,Kafka流中仅内置了基于时间的保留。但是也许有一个很好的解决方法,根据聚合的数量来限制实例上的内存。