通过Confluent CLI启动kafka时,不会获取Kafka日志配置

时间:2017-12-05 08:18:12

标签: apache-kafka confluent

我正在尝试从apache kafka升级到融合的kafka

由于temp文件夹的存储空间非常有限,我已将server.properties的log.dirs更改为自定义文件夹

log.dirs=<custom  location>

然后尝试使用以下命令通过Confluent CLI(版本4.0)启动kafka服务器:

bin/confluent start kafka

然而,当我检查kafka数据文件夹时,数据仍然保存在临时文件夹下而不是自定义文件夹中。

我试图直接启动kafka服务器,而不使用Confluent CLI

bin/kafka-server-start etc/kafka/server.properties

然后看到配置已正确选择

这是汇总CLI的错误,或者它应该是

2 个答案:

答案 0 :(得分:0)

Confluent CLI用于在使用Confluent Platform进行开发期间使用。因此,它目前收集公共位置下的所有数据和日志,以便开发人员能够轻松检查(使用confluent log或手动)并删除(使用confluent destroy或手动)此类数据。

您可以通过设置

来更改此常用位置

export CONFLUENT_CURRENT=<top-level-logs-and-data-directory>

并随时获取使用的位置:

confluent current

其余属性在每个服务的各种.properties文件中使用。

答案 1 :(得分:0)

  

我正在尝试从Apache Kafka升级到融合的Kafka

没有“融合卡夫卡”之类的东西。


您可以参考Apache或Confluent升级文档步骤来切换Kafka版本,但最终,两者都是 Apache Kafka

相关说明:您不需要Confluent站点中的Kafka即可运行Confluent平台的其他部分。


不过,confluent命令将读取它自己的嵌入式配置文件,以仅在localhost上运行,并且不打算与外部代理/动物园管理员集成。

因此,kafka-server-start是运行 Apache Kafka

production 方法