我正在使用融合的kafka connect服务,但未在/var/log/kafka
中写入日志。如何配置它以便将日志写入/var/log/kafka
中?
当前/ var / log / kafka仅具有以下日志文件-
-rw-r--r-- 1 cp-kafka confluent 0 Sep 20 14:51 kafka-request.log
-rw-r--r-- 1 cp-kafka confluent 0 Sep 20 14:51 kafka-authorizer.log
-rw-r--r-- 1 cp-kafka confluent 1622 Nov 13 15:43 log-cleaner.log
-rw-r--r-- 1 cp-kafka confluent 7611 Nov 13 20:57 state-change.log
-rw-r--r-- 1 cp-kafka confluent 1227 Nov 14 11:13 server.log
-rw-r--r-- 1 cp-kafka confluent 16683 Nov 14 11:13 controller.log
进一步检查后,我发现写入/var/log/messages
的日志(我不想要)。
看看下面的connect-log4j.properties
:
log4j.rootLogger=INFO, stdout
log4j.appender.stdout=org.apache.log4j.ConsoleAppender
log4j.appender.stdout.layout=org.apache.log4j.PatternLayout
log4j.appender.stdout.layout.ConversionPattern=[%d] %p %m (%c:%L)%n
log4j.logger.org.apache.zookeeper=ERROR
log4j.logger.org.I0Itec.zkclient=ERROR
log4j.logger.org.reflections=ERROR
我正在努力在Confluent文档中找到这些基本内容。请帮忙!
答案 0 :(得分:4)
当前,所有日志记录似乎都已重定向到标准输出。要将日志重定向到文件,您需要将/etc/kafka/connect-log4j.properties
的内容更改为:
log4j.rootLogger=INFO, file
log4j.appender.file=org.apache.log4j.RollingFileAppender
log4j.appender.file.File=/var/log/kafka/connect.log
log4j.appender.file.layout=org.apache.log4j.PatternLayout
log4j.appender.file.layout.ConversionPattern=[%d] %p %m (%c:%L)%n
log4j.appender.file.MaxFileSize=10MB
log4j.appender.file.MaxBackupIndex=5
log4j.appender.file.append=true
有关log4j
的更多详细信息,您可以参考this article。另外,@ Robin Moffatt编写了一个非常不错的article,用于将Kafka Connect的REST HTTP消息记录到一个单独的文件中。