我是这个概念的新手,如果我做错了,请帮助我。
我配置了4个从属和一个主服务器的多节点hadoop集群。 Hadoop版本是1.2.1。
现在我需要在其中配置apache flume以获取twitter数据。
以下配置在Flume
中完成在flume-env.sh
JAVA_HOME=/usr/lib/jvm/java-1.7.0-openjdk-1.7.0.65.x86_64/
我还根据
配置了flume.conf
文件
我正试图通过命令./flume-ng agent -n MyTwitAgent -c conf -f /opt/flume/apache-flume-1.4.0-bin/conf/flume.conf
错误是:
+ exec /usr/lib/jvm/java-1.7.0-openjdk-1.7.0.65.x86_64//bin/java -Xmx20m -cp 'conf:/opt/flume/apache-flume-1.4.0-bin/lib/*' -Djava.library.path= org.apache.flume.node.Application -n MyTwitAgent -f /opt/flume/apache-flume-1.4.0-bin/conf/flume.conf
log4j:WARN No appenders could be found for logger (org.apache.flume.lifecycle.LifecycleSupervisor).
log4j:WARN Please initialize the log4j system properly.
log4j:WARN See http://logging.apache.org/log4j/1.2/faq.html#noconfig for more info.