我很新,不知道Kafka和log4j。我正在尝试将我的日志消息发送到Kafka。这是我的log4j属性文件
log4j.rootLogger=INFO, stdout
log4j.appender.stdout=org.apache.log4j.ConsoleAppender
log4j.appender.stdout.layout=org.apache.log4j.PatternLayout
log4j.appender.stdout.layout.ConversionPattern=%d{yyyy-MM-dd HH:mm:ss} %-5p %c{1}:%L %% %m%n
log4j.appender.KAFKA=kafka.producer.KafkaLog4jAppender
log4j.appender.KAFKA.BrokerList=localhost:9092
log4j.appender.KAFKA.Topic=kfkLogs
log4j.appender.KAFKA.SerializerClass=kafka.producer.DefaultStringEncoder
log4j.appender.KAFKA.layout=org.apache.log4j.PatternLayout
log4j.appender.KAFKA.layout.ConversionPattern=%d{yyyy-MM-dd HH:mm:ss} %-5p %c{1}:%L %% - %m%n
log4j.logger.logGen=DEBUG, KAFKA
但是,我无法在我的消费者中收到任何消息。我用其他一些生产者代码测试了消费者,它运行正常。
另外,我收到此警告
log4j:WARN No such property [serializerClass] in kafka.producer.KafkaLog4jAppender.
修改
这是生成我的日志消息的代码
package logGen;
import org.apache.log4j.Logger;
public class TestLog4j {
static Logger log = Logger.getLogger(TestLog4j.class.getName());
public static void main(String[] args) {
log.debug("Debug message");
log.info("Info message");
log.error("Error Message");
log.fatal("Fatal Message");
log.warn("Warn Message");
log.trace("Trace Message");
}
}
此外,如果我使用类似
之类的东西将日志消息写入文件log4j.appender.KAFKA=org.apache.log4j.DailyRollingFileAppender
log4j.appender.KAFKA.DatePattern='.'yyyy-MM-dd-HH
log4j.appender.KAFKA.File=logs/server.log
我可以在server.log文件中看到日志消息
感谢大家的建议。我认为我看到的奇怪行为可能与我的卡夫卡设置有关。这是我用来启动我的kafka服务器的server.properties文件的内容。你能看到有什么奇怪的事吗?
broker.id=0
port=9092
num.network.threads=3
num.io.threads=8
socket.send.buffer.bytes=102400
socket.receive.buffer.bytes=102400
socket.request.max.bytes=104857600
log.dirs=/Users/xyz/kafka/kafka-logs
num.partitions=1
num.recovery.threads.per.data.dir=1
log.retention.hours=168
log.segment.bytes=1073741824
log.retention.check.interval.ms=300000
log.cleaner.enable=false
zookeeper.connect=localhost:2181
zookeeper.connection.timeout.ms=6000
delete.topic.enable=true
答案 0 :(得分:6)
我已经看了KafkaLog4jAppender.scala的源代码,以下是Kafka log4j appender从0.8.2.1开始的有效和详尽属性:topic ,brokerList,compressionType,requiredNumAcks,syncSend。
对我有用的 log4j.properties 如下:
log4j.rootLogger=ERROR, stdout
log4j.logger.logGen=DEBUG, KAFKA
log4j.appender.stdout=org.apache.log4j.ConsoleAppender
log4j.appender.stdout.layout=org.apache.log4j.PatternLayout
log4j.appender.stdout.layout.ConversionPattern=%d{yyyy-MM-dd HH:mm:ss} %-5p %c{1}:%L %% %m%n
log4j.appender.KAFKA=kafka.producer.KafkaLog4jAppender
log4j.appender.KAFKA.topic=LOG
log4j.appender.KAFKA.brokerList=localhost:9092
log4j.appender.KAFKA.compressionType=none
log4j.appender.KAFKA.requiredNumAcks=0
log4j.appender.KAFKA.syncSend=true
log4j.appender.KAFKA.layout=org.apache.log4j.PatternLayout
log4j.appender.KAFKA.layout.ConversionPattern=%d{yyyy-MM-dd HH:mm:ss} %-5p %c{1}:%L %% - %m%n
答案 1 :(得分:1)
您需要KAFKA
添加log4j.rootLogger
,如下所示:
log4j.rootLogger=INFO, stdout, KAFKA
这会将KAFKA
appender添加到你的rootLogger。
答案 2 :(得分:1)
我必须指定
log4j.appender.KAFKA.producer.type =异步
log4j.logger.logGen.TestLog4j = TRACE,KAFKA
这似乎有效。但是我经历了10-30秒的延迟。具体来说,如果我现在发布并且可以看到消费者中的消息,那么下次我发布的时间必须大约30秒,否则我在消费者中看不到任何内容。关于为什么会发生这种情况的任何想法?也许这是一个eclispe问题?
答案 3 :(得分:1)
log4j.appender.KAFKA.SerializerClass = kafka.producer.DefaultStringEncoder
你可以试试吗log4j.appender.KAFKA.Serializer = kafka.producer.DefaultStringEncoder
相反?
我相信发送消息的异步模式通过批处理来实现,因此延迟,你尝试使用同步发送吗?