没有找到记录器的追加器(org.apache.kafka.clients.consumer.ConsumerConfig)

时间:2016-03-21 10:31:09

标签: scala log4j apache-kafka apache-flink

我试图通过在Scala中创建Kafka Consumer来将Apache Kafka连接到Apache Flink。这是我的消费者代码:

val properties = new Properties()
properties.setProperty("bootstrap.servers", "localhost:9092")
properties.setProperty("zookeeper.connect", "localhost:2181")
properties.setProperty("group.id", "test")

val env = StreamExecutionEnvironment.getExecutionEnvironment
val stream = env
            .addSource(new FlinkKafkaConsumer09[String]("test", new  SimpleStringSchema(), properties))
            .print
env.enableCheckpointing(5000)

当我运行这个程序时,我从log4j收到一些警告并且程序终止,没有显示输出。我的卡夫卡制作人已经开始运作了。

log4j:WARN No appenders could be found for logger (org.apache.kafka.clients.consumer.ConsumerConfig).
log4j:WARN Please initialize the log4j system properly.
log4j:WARN See http://logging.apache.org/log4j/1.2/faq.html#noconfig for more info.

1 个答案:

答案 0 :(得分:3)

我不认为log4j WARN是程序终止的原因。 当类路径中没有log4j时,通常会出现这些问题。

没有产生输出的原因是因为env.execute()调用缺失,所以作业永远不会启动。