卡夫卡生产者巨大的内存使用情况(泄漏?)

时间:2018-09-18 12:09:44

标签: java apache-kafka

我们在生产中部署了3个经纪人Kafka 0.10.1.0。有些应用程序中嵌入了Kafka Producers,这些应用程序将应用程序日志发送到某个主题。本主题有10个分区,复制因子为3。

我们观察到,其中一些应用程序服务器上的内存使用情况会持续断断续续地拍摄。进行堆转储后,我们发现主要嫌疑犯是:

**org.apache.kafka.common.network.Selector -**

occupies 352,519,104 (24.96%) bytes. The memory is accumulated in one instance of "byte[]" loaded by "<system class loader>".

**org.apache.kafka.common.network.KafkaChannel -**

occupies 352,527,424 (24.96%) bytes. The memory is accumulated in one instance of "byte[]" loaded by "<system class loader>"

这两个都拥有约352MB的空间。 3个此类实例,因此它们消耗了约1.2GB的内存。

现在关于生产者的使用。没有大量日志发送到Kafka集群。大约为200毫秒/秒。在整个应用程序中仅使用一个生产者对象。使用了异步发送功能。

如此大量的内存使用可能是什么原因?在特定的Kafka版本中,是否存在某种形式的内存泄漏?

在生产中使用的是Kafka Producer配置。

kafka.bootstrap.servers=x.x.x.x:9092,x.x.x.x:9092,x.x.x.x:9092
kafka.acks=0
kafka.key.serializer=org.apache.kafka.common.serialization.StringSerializer
kafka.value.serializer=org.apache.kafka.common.serialization.StringSerializer
kafka.max.block.ms=1000
kafka.request.timeout.ms=1000
kafka.max.in.flight.requests.per.connection=1
kafka.retries=0
kafka.compression.type=gzip
kafka.security.protocol=SSL
kafka.ssl.truststore.location=/data/kafka/kafka-server-truststore.jks
kafka.ssl.truststore.password=XXXXXX
kafka.linger.ms=300
logger.level=INFO

这是GC日志中显示Kafka网络线程分配的部分

<allocation-stats totalBytes="3636833992" >
  <allocated-bytes non-tlh="3525405200" tlh="111428792" />
  <largest-consumer threadName="kafka-producer-network-thread | producer-1" threadId="0000000033A26700" bytes="3525287448" />
</allocation-stats>
<gc-op id="591417" type="scavenge" timems="21.255" contextid="591414" timestamp="2018-09-19T17:55:32.938">
  <scavenger-info tenureage="14" tenuremask="4000" tiltratio="89" />
  <memory-copied type="nursery" objects="61155" bytes="6304384" bytesdiscarded="3968416" />
  <memory-copied type="tenure" objects="1199" bytes="230312" bytesdiscarded="38656" />
  <finalization candidates="461" enqueued="316" />
  <ownableSynchronizers candidates="18" cleared="5" />
  <references type="soft" candidates="231" cleared="0" enqueued="0" dynamicThreshold="23" maxThreshold="32" />
  <references type="weak" candidates="20" cleared="2" enqueued="1" />
  <references type="phantom" candidates="2" cleared="0" enqueued="0" />
</gc-op>
<gc-end id="591418" type="scavenge" contextid="591414" durationms="21.715" usertimems="11.640" systemtimems="0.125" timestamp="2018-09-19T17:55:32.939" activeThreads="64">
  <mem-info id="591419" free="4226106664" total="6049234944" percent="69">
    <mem type="nursery" free="3855164752" total="4294967296" percent="89">
      <mem type="allocate" free="3855164752" total="3865444352" percent="99" />
      <mem type="survivor" free="0" total="429522944" percent="0" />
    </mem>
    <mem type="tenure" free="370941912" total="1754267648" percent="21">
      <mem type="soa" free="362646600" total="1740233728" percent="20" />
      <mem type="loa" free="8295312" total="14033920" percent="59" />
    </mem>
    <pending-finalizers system="315" default="1" reference="1" classloader="0" />
    <remembered-set count="4110" />
  </mem-info>
</gc-end>
<cycle-end id="591420" type="scavenge" contextid="591414" timestamp="2018-09-19T17:55:32.940" />
<allocation-satisfied id="591421" threadId="0000000033A26700" bytesRequested="352518920" />
<af-end id="591422" timestamp="2018-09-19T17:55:32.962" />
<exclusive-end id="591423" timestamp="2018-09-19T17:55:32.962" durationms="45.987" />

1 个答案:

答案 0 :(得分:1)

可能有很多原因。但是,如果需要优化,可以尝试以下方法:

  1. replica.fetch.max.bytes-每个分区的缓冲区大小。分区数乘以最大消息的大小不会超过可用内存。 消费者也同样适用-fetch.message.max.bytesmax.partition.fetch.bytes-服务器将返回的每个分区最大数据量。可以使用-replica.high.watermark.checkpoint.interval.ms来检查丢失的数据,以调整吞吐量。

2。batch.size(不得超过可用内存)和linger.ms(设置异步数据缓冲的最大时间)