当我运行flume-ng agent -f /usr/hdp/current/flume-server/conf/example.conf -c /usr/hdp/current/flume-server/conf -n a1
命令时,我会收到以下日志:
警告:未设置JAVA_HOME!信息:包括找到的Hadoop库 通过(/ bin / hadoop)进行HDFS访问信息:不包括 来自类路径的/usr/hdp/2.6.5.0-292/hadoop/lib/slf4j-api-1.7.10.jar 信息:不包括 /usr/hdp/2.6.5.0-292/hadoop/lib/slf4j-log4j12-1.7.10.jar来自 classpath信息:不包括 来自类路径的/usr/hdp/2.6.5.0-292/tez/lib/slf4j-api-1.7.5.jar信息: 包括通过(/ bin / hbase)找到的用于HBASE访问的HBASE库 信息:不包括/usr/hdp/2.6.5.0-292/hbase/lib/slf4j-api-1.7.7.jar 来自classpath信息:不包括 来自类路径的/usr/hdp/2.6.5.0-292/hadoop/lib/slf4j-api-1.7.10.jar 信息:不包括 /usr/hdp/2.6.5.0-292/hadoop/lib/slf4j-log4j12-1.7.10.jar来自 classpath信息:不包括 来自类路径的/usr/hdp/2.6.5.0-292/tez/lib/slf4j-api-1.7.5.jar信息: 从/usr/hdp/2.6.5.0-292/hadoop/lib/slf4j-api-1.7.10.jar排除 classpath信息:不包括 /usr/hdp/2.6.5.0-292/hadoop/lib/slf4j-log4j12-1.7.10.jar来自 classpath信息:包括通过()找到的用于Hive访问的Hive库 + exec / usr / bin / java -Xmx20m -cp'/usr/hdp/current/flume-server/conf:/usr/hdp/2.6.5.0-292/flume/lib/:/usr/hdp/ 2.6.5.0-292 / hadoop / conf:/usr/hdp/2.6.5.0-292/hadoop/lib/activation-1.1.jar:/usr/hdp/2.6.5.0-292/hadoop/lib/apacheds-i18n- 2.0.0-M15.jar:/usr/hdp/2.6.5.0-292/hadoop/lib/apacheds-kerberos-codec-2.0.0-M15.jar:/usr/hdp/2.6.5.0-292/hadoop/ lib / api-asn1-api-1.0.0 -... 3.4.6.2.6.5.0-292.jar:/usr/hdp/2.6.5.0-292/zookeeper/bin:/usr/hdp/2.6.5.0 -292 / zookeeper / conf:/usr/hdp/2.6.5.0-292/zookeeper/doc:/usr/hdp/2.6.5.0-292/zookeeper/etc:/usr/hdp/2.6.5.0-292/zookeeper/库:/usr/hdp/2.6.5.0-292/zookeeper/man:/usr/hdp/2.6.5.0-292/zookeeper/usr:/usr/hdp/2.6.5.0-292/zookeeper/zookeeper-3.4.6.2 .6.5.0-292.jar:/usr/hdp/2.6.5.0-292/zookeeper/zookeeper.jar:/ conf:/ lib / '-Djava.library.path = :: // usr / hdp /2.6.5.0-292/hadoop/lib/native/Linux-amd64-64:/usr/hdp/2.6.5.0-292/hadoop/lib/native::/usr/hdp/2.6.5.0-292/hadoop/ lib / native / Linux-amd64-64:/usr/hdp/2.6.5.0-292/hadoop/lib/native org.apache.flume.node.Application -f /usr/hdp/current/flume-server/conf/example.conf -n a1 SLF4J:类 路径包含多个SLF4J绑定。 SLF4J:找到绑定 [jar:文件:/usr/hdp/2.6.5.0-292/flume/lib/slf4j-log4j12-1.7.10.jar!/org/slf4j/impl/StaticLoggerBinder.class] SLF4J:找到绑定 [jar:文件:/usr/hdp/2.6.5.0-292/flume/lib/log4j-slf4j-impl-2.10.0.jar!/org/slf4j/impl/StaticLoggerBinder.class] SLF4J:请参见http://www.slf4j.org/codes.html#multiple_bindings 解释。
在此之后什么也没有发生。虽然当我使用netstat命令并尝试grep端口44444时,我可以看到它的侦听信息,但可以远程登录,但它说连接被拒绝。我正在关注flume用户文档,并在文档中创建了第一个flume代理a1。
'# example.conf: A single-node Flume configuration
# Name the components on this agent
a1.sources = r1
a1.sinks = k1
a1.channels = c1
# Describe/configure the source
a1.sources.r1.type = netcat
a1.sources.r1.bind = localhost
a1.sources.r1.port = 44444
# Describe the sink
a1.sinks.k1.type = logger
# Use a channel which buffers events in memory
a1.channels.c1.type = memory
a1.channels.c1.capacity = 1000
a1.channels.c1.transactionCapacity = 100
# Bind the source and sink to the channel
a1.sources.r1.channels = c1
a1.sinks.k1.channel = c1
我无法弄清楚自己在做什么,我使用hortonworks沙盒hdp 2.6.5。请帮忙。预先感谢。