Flume下沉到HDFS错误:java.lang.NoSuchMethodError:com.google.common.base.Preconditions.checkArgument

时间:2019-11-04 06:51:28

标签: hdfs flume

使用:

  • Java 1.8.0_231
  • Hadoop 3.2.1
  • 水槽1.8.0

已在9000端口上创建了hdfs服务。

jps:

11688 DataNode
10120 Jps
11465 NameNode
11964 SecondaryNameNode
12621 NodeManager
12239 ResourceManager

Flume conf:

agent1.channels.memory-channel.type=memory
agent1.sources.tail-source.type=exec
agent1.sources.tail-source.command=tail -F /var/log/nginx/access.log
agent1.sources.tail-source.channels=memory-channel

#hdfs sink
agent1.sinks.hdfs-sink.channel=memory-channel
agent1.sinks.hdfs-sink.type=hdfs
agent1.sinks.hdfs-sink.hdfs.path=hdfs://cluster01:9000/system.log
agent1.sinks.hdfs-sink.hdfs.fileType=DataStream
agent1.channels=memory-channel
agent1.sources=tail-source
agent1.sinks=log-sink hdfs-sink

然后开始水槽:

./bin/flume-ng agent --conf conf -conf-file conf/test1.conf --name agent1 -Dflume.root.logger=INFO,console

然后遇到错误:

Info: Including Hadoop libraries found via (/usr/local/hadoop-3.2.1/bin/hadoop) for HDFS access
...
2019-11-04 14:48:24,818 (lifecycleSupervisor-1-1) [INFO - org.apache.flume.instrumentation.MonitoredCounterGroup.start(MonitoredCounterGroup.java:95)] Component type: SINK, name: hdfs-sink started
2019-11-04 14:48:28,823 (SinkRunner-PollingRunner-DefaultSinkProcessor) [INFO - org.apache.flume.sink.hdfs.HDFSDataStream.configure(HDFSDataStream.java:57)] Serializer = TEXT, UseRawLocalFileSystem = false
2019-11-04 14:48:28,836 (SinkRunner-PollingRunner-DefaultSinkProcessor) [ERROR - org.apache.flume.sink.hdfs.HDFSEventSink.process(HDFSEventSink.java:447)] process failed
java.lang.NoSuchMethodError: com.google.common.base.Preconditions.checkArgument(ZLjava/lang/String;Ljava/lang/Object;)V
    at org.apache.hadoop.conf.Configuration.set(Configuration.java:1357)
    at org.apache.hadoop.conf.Configuration.set(Configuration.java:1338)
    at org.apache.hadoop.conf.Configuration.setBoolean(Configuration.java:1679)
    at org.apache.flume.sink.hdfs.BucketWriter.open(BucketWriter.java:226)
    at org.apache.flume.sink.hdfs.BucketWriter.append(BucketWriter.java:541)
    at org.apache.flume.sink.hdfs.HDFSEventSink.process(HDFSEventSink.java:401)
    at org.apache.flume.sink.DefaultSinkProcessor.process(DefaultSinkProcessor.java:67)
    at org.apache.flume.SinkRunner$PollingRunner.run(SinkRunner.java:145)
    at java.lang.Thread.run(Thread.java:748)
Exception in thread "SinkRunner-PollingRunner-DefaultSinkProcessor" java.lang.NoSuchMethodError: com.google.common.base.Preconditions.checkArgument(ZLjava/lang/String;Ljava/lang/Object;)V
    at org.apache.hadoop.conf.Configuration.set(Configuration.java:1357)
    at org.apache.hadoop.conf.Configuration.set(Configuration.java:1338)
    at org.apache.hadoop.conf.Configuration.setBoolean(Configuration.java:1679)
    at org.apache.flume.sink.hdfs.BucketWriter.open(BucketWriter.java:226)
    at org.apache.flume.sink.hdfs.BucketWriter.append(BucketWriter.java:541)
    at org.apache.flume.sink.hdfs.HDFSEventSink.process(HDFSEventSink.java:401)
    at org.apache.flume.sink.DefaultSinkProcessor.process(DefaultSinkProcessor.java:67)
    at org.apache.flume.SinkRunner$PollingRunner.run(SinkRunner.java:145)
    at java.lang.Thread.run(Thread.java:748)

我搜索了一段时间,但没有在网上找到相同的错误。有解决此问题的建议吗?

5 个答案:

答案 0 :(得分:1)

可能是lib / guava引起的。

我删除了lib / guava-11.0.2.jar,然后重新启动水槽,发现它可以工作。

输出:

2019-11-04 16:52:58,062 (hdfs-hdfs-sink-call-runner-0) [WARN - org.apache.hadoop.util.NativeCodeLoader.<clinit>(NativeCodeLoader.java:60)] Unable to load native-hadoop library for your platform... using builtin-java classes where applicable
2019-11-04 16:53:01,532 (Thread-9) [INFO - org.apache.hadoop.hdfs.protocol.datatransfer.sasl.SaslDataTransferClient.checkTrustAndSend(SaslDataTransferClient.java:239)] SASL encryption trust check: localHostTrusted = false, remoteHostTrusted = false

但是我仍然不知道现在使用的是哪个版本的番石榴。

答案 1 :(得分:1)

我有同样的问题。似乎是水槽里的虫子。它引用了该版本的番石榴中不存在的类名

答案 2 :(得分:0)

用来自 hadoop 3 公共库的 guava-27.x.x.jar 替换 guava-11.x.x.jar 文件,这会起作用

hadoop-3.3.0/share/hadoop/common/lib/guava-27.0-jre.jar 把这个文件放在你的flume库中,不要忘记先从flume库中删除旧版本

答案 3 :(得分:0)

正如其他人所说,guava-11 (hadoop2/flume 1.8.0/1.9.0) 和 guava-27 (hadoop3) 之间存在冲突。

其他答案没有解释问题的根本原因:如果设置了 $FLUME_HOME/bin/flume-ng 环境变量,$HADOOP_HOME 下的脚本会将我们的 hadoop 发行版中的所有 jar 放入水槽类路径。

关于为什么建议的操作“解决”问题的原因很少:删除 $FLUME_HOME/lib/guava-11.0.2.jar 只留下 guava-27.0-jre.jar,不再有冲突。

所以,不需要复制到 $FLUME_HOME/lib 下,也不是 Flume 的 bug,只是版本不兼容,因为 Flume 没有升级 Guava,而 Hadoop 3 升级了。

我没有深入研究这些番石榴版本之间更改的细节,可能会发生一切正常的情况,直到它不正常为止(例如,如果两者之间存在任何向后不兼容的更改)。

因此,在生产环境中使用此“修复”之前,我建议进行广泛的测试以降低出现意外问题的风险。

最好的解决方案是等待(或贡献)Guava 升级到 v27 的新 Flume 版本。

答案 4 :(得分:0)

我同意 Alessandro S。

Flume 通过 HDFS API 与 HDFS 通信,如果 API 不改变,大多数情况下,Hadoop 平台运行的版本无关紧要。实际上,flume 是使用某些特定版本的 hadoop 库构建的。问题是你运行flume使用了错误的hadoop库版本。

所以只需使用 2.x.x 版的 hadoop 库来运行您的 1.8.0 水槽