Kafka大邮件配置

时间:2018-08-30 08:54:13

标签: apache-kafka kafka-producer-api

我阅读了许多有关配置的主题,但我仍然不明白。

当我这样做:

../kafka_2.11-1.1.0/bin/kafka-topics.sh --zookeeper localhost:2181 --alter --topic my_topic --config max.message.bytes=10000000

这有帮助

但是在我的应用程序中,一切都尝试过

def producerSettings(system: ActorSystem): ProducerSettings[String, KafkaMessage] =
    ProducerSettings(system, new StringSerializer, new GenericSerde[KafkaMessage].serializer())
      .withBootstrapServers("localhost:9092")
      .withProperty("auto.create.topics.enable", "true")
      .withProperty("replica.fetch.max.bytes", maxSize)
      .withProperty("message.max.bytes", maxSize)

val producer: KafkaProducer[String, KafkaMessage] = configuration.producerSettings(context.system)
    .withBootstrapServers("localhost:" + config.getInt("kafka.port"))
    .withProperty("message.max.bytes", maxSize)
    .withProperty("max.request.size", maxSize)
    .createKafkaProducer()

当我开始清洁卡夫卡时-我在日志中看到

INFO Created log for partition my_topic-0 in /tmp/kafka-logs with properties {compression.type -> producer, message.format.version ->
1.1-IV0, file.delete.delay.ms -> 60000, max.message.bytes -> 1000012, min.compaction.lag.ms -> 0, message.timestamp.type -> CreateTime, min.insync.replicas -> 1, segment.jitter.ms -> 0, preallocate -> false, min.cleanable.dirty.ratio -> 0.5, index.interval.bytes -> 4096, unclean.leader.election.enable -> false, retention.bytes -> -1, delete.retention.ms -> 86400000, cleanup.policy -> [delete], flush.ms
-> 9223372036854775807, segment.ms -> 604800000, segment.bytes -> 1073741824, retention.ms -> 604800000, message.timestamp.difference.max.ms -> 9223372036854775807, segment.index.bytes -> 10485760, flush.messages -> 9223372036854775807}. (kafka.log.LogManager)

a您看到max.message.bytes-> 1000012仍为默认值 而且我不得不再次记录大量消息异常

我做错了什么?我想通过我的应用程序进行配置-而不是控制台命令。有可能吗?

1 个答案:

答案 0 :(得分:2)

这可能是因为您的主题是由代理自动创建的。通过代理自动创建主题时,该主题将使用代理的默认配置。

您可以在代理中更改默认配置message.max.bytes,但我不建议您这样做,因为代理配置将应用于自动创建的所有其他主题。

或者您可以使用所需的配置在应用程序中显式创建主题,以便代理不会使用其默认配置自动创建主题。