卡夫卡内存泄漏

时间:2019-06-10 15:02:24

标签: kubernetes apache-kafka bigdata prometheus kubernetes-helm

运行最新的Kafka掌舵图https://github.com/confluentinc/cp-helm-charts,我们正经历着呈指数级增长的内存泄漏,这导致我们的GCP群集在运行两天后崩溃。我提出了问题https://github.com/confluentinc/cp-helm-charts/issues/296,但无济于事。

我仍然无法追踪泄漏源,但是我认为可能是由于普罗米修斯出口商造成的。

是否存在针对此问题的已知修补程序?

更新

在图表值中禁用了jmx,但是我们仍然遇到大量泄漏,大部分来自控制中心吊舱

1 个答案:

答案 0 :(得分:0)

有时,陷入崩溃循环的使用者可能会建立大量的内存。我们花了很长时间跟踪下来,很快就找到了装满TB的信息,结果它提交了崩溃日志作为记录。仔细检查消费者和生产者,以防万一类似