编写Flume配置以将不断增长的文件上传到HDFS

时间:2018-08-20 20:41:42

标签: hadoop flume flume-ng

我是Flume的新手,并且在配置方面存在一些问题。

我在Oracle VirtualBox上使用Hortonworks Sandbox HDP 2.6.5(如果这很重要)。

我的VM中有一个文本文件 input_data.txt

enter image description here

input_data.txt的内容如下:

enter image description here

我使用以下命令创建并逐渐增加输入:

cat input_data.txt | while read line ; do echo "$line" ; sleep 0.2 ; done > output.txt

enter image description here

我要实现的目标:

1)编写Flume配置,将不断增长的 output.txt 文件上传到HDFS

2)(如果可能)–每次源文件(/usr/AUX/output.txt)更改时,HDFS中的目标文件都必须更新。

例如: 我打开/usr/AUX/output.txt,最后写几个字符串并保存:

Nov 16 10:21:22 ephubudw3000 avahi-daemon[990]: Invalid response packet from host 10.0.9.31.
Nov 16 10:21:22 ephubudw3000 avahi-daemon[990]: Invalid response packet from host 10.0.12.143.
...
lolkek
hehehehe
azazaza322

,然后此新数据必须出现在hdfs://sandbox.hortonworks.com:8020 / user / tutorial /

的HDFS目标文件中

这就是我已经尝试过的

我创建此配置(flume.conf文件):

a1.sources = src1
a1.sinks =  sink1
a1.channels = memoryChannel

a1.sources.src1.type = exec
a1.sources.src1.shell = /bin/bash -c
a1.sources.src1.command = cat /usr/AUX/output.txt
a1.sources.src1.batchSize = 1
a1.sources.src1.channels = memoryChannel 

a1.channels.memoryChannel.type = memory
a1.channels.memoryChannel.capacity = 1000
a1.channels.memoryChannel.transactionCapacity = 100

a1.sinks.sink1.type = hdfs
a1.sinks.sink1.channels = memoryChannel
a1.sinks.sink1.hdfs.filetype = DataStream
a1.sinks.sink1.hdfs.writeFormat = Text
a1.sinks.sink1.hdfs.path = hdfs://sandbox.hortonworks.com:8020/user/tutorial/

然后我使用以下命令启动Flume代理(a1):

/usr/hdp/current/flume-server/bin/flume-ng agent -c /etc/flume/conf -f /etc/flume/conf/flume.conf -n a1

[root@sandbox-hdp AUX]# /usr/hdp/current/flume-server/bin/flume-ng agent -c /etc/flume/conf -f /etc/flume/conf/flume.conf -n a1
Warning: JAVA_HOME is not set!
Info: Including Hadoop libraries found via (/bin/hadoop) for HDFS access
Info: Excluding /usr/hdp/2.6.5.0-292/hadoop/lib/slf4j-api-1.7.10.jar from classpath
Info: Excluding /usr/hdp/2.6.5.0-292/hadoop/lib/slf4j-log4j12-1.7.10.jar from classpath
Info: Excluding /usr/hdp/2.6.5.0-292/tez/lib/slf4j-api-1.7.5.jar from classpath
Info: Including HBASE libraries found via (/bin/hbase) for HBASE access
Info: Excluding /usr/hdp/2.6.5.0-292/hbase/lib/slf4j-api-1.7.7.jar from classpath
Info: Excluding /usr/hdp/2.6.5.0-292/hadoop/lib/slf4j-api-1.7.10.jar from classpath
Info: Excluding /usr/hdp/2.6.5.0-292/hadoop/lib/slf4j-log4j12-1.7.10.jar from classpath
Info: Excluding /usr/hdp/2.6.5.0-292/tez/lib/slf4j-api-1.7.5.jar from classpath
Info: Excluding /usr/hdp/2.6.5.0-292/hadoop/lib/slf4j-api-1.7.10.jar from classpath
Info: Excluding /usr/hdp/2.6.5.0-292/hadoop/lib/slf4j-log4j12-1.7.10.jar from classpath
Info: Including Hive libraries found via () for Hive access
+ exec /usr/bin/java -Xmx20m -cp '/etc/flume/conf:/usr/hdp/2.6.5.0-292/flume/lib/*:/usr/hdp/2.6.5.0-292/hadoop/conf:/usr/hdp/2.6.5.0-292/hadoop/lib/activation-1.1.jar:/usr/hdp/2.6.5.0-292/hadoop/lib/apacheds-i18n-2.0.0-M15.jar:/usr/hdp/2.6.5.0-292/hadoop/lib/apacheds-kerberos-codec-2.0.0-M15.jar:/usr/hdp/2.6.5.0-292/hadoop/lib/api-asn1-api-1.0.0-M20.jar:/usr/hdp/2.6.5.0-292/hadoop/lib/api-util-1.0.0-M20.jar:/usr/hdp/2.6.5.0-292/hadoop/lib/asm-3.2.jar:/usr/hdp/2.6.5.0-292/hadoop/lib/avro-1.7.4.jar:/usr/hdp/2.6.5.0-292/hadoop/lib/aws-java-sdk-core-1.10.6.jar:/usr/hdp/2.6.5.0-292/hadoop/lib/aws-java-sdk-kms-1.10.6.jar:/usr/hdp/2.6.5.0-292/hadoop/lib/aws-java-sdk-s3-1.10.6.jar:/usr/hdp/2.6.5.0-292/hadoop/lib/azure-keyvault-core-0.8.0.jar:/usr/hdp/2.6.5.0-292/hadoop/lib/azure-storage-5.4.0.jar:/usr/hdp/2.6.5.0-292/hadoop/lib/commons-beanutils-1.7.0.jar:/usr/hdp/2.6.5.0-292/hadoop/lib/commons-beanutils-core-1.8.0.jar:/usr/hdp/2.6.5.0-292/hadoop/lib/commons-cli-1.2.jar:/usr/hdp/2.6.5.0-292/hadoop/lib/commons-codec-1.4.jar:
...........................
2/hadoop/lib/native/Linux-amd64-64:/usr/hdp/2.6.5.0-292/hadoop/lib/native::/usr/hdp/2.6.5.0-292/hadoop/lib/native/Linux-amd64-64:/usr/hdp/2.6.5.0-292/hadoop/lib/native org.apache.flume.node.Application -f /etc/flume/conf/flume.conf -n a1
SLF4J: Class path contains multiple SLF4J bindings.
SLF4J: Found binding in [jar:file:/usr/hdp/2.6.5.0-292/flume/lib/slf4j-log4j12-1.7.10.jar!/org/slf4j/impl/StaticLoggerBinder.class]
SLF4J: Found binding in [jar:file:/usr/hdp/2.6.5.0-292/flume/lib/log4j-slf4j-impl-2.10.0.jar!/org/slf4j/impl/StaticLoggerBinder.class]
SLF4J: See http://www.slf4j.org/codes.html#multiple_bindings for an explanation.

此后,我在/usr/AUX/output.txt的末尾添加了几个字符串...

enter image description here

什么也没有发生。 HDFS中没有更新的文件

enter image description here

我将非常感谢您的帮助。 是否可以实现我提到的目标(在VM中更新文件后,在HDFS中自动更新文件),我的Flume配置有什么问题?

谢谢!

2 个答案:

答案 0 :(得分:1)

  

如果可能的话-每次源文件(/usr/AUX/output.txt)更改时,HDFS中的目标文件都必须更新

好吧,事实是HDFS文件不是要“更新”的,因为HDFS是用于追加的优化FileSystem。因此,建议的模式是创建一个新文件。几乎所有的Hadoop处理引擎都可以读取整个目录,因此这不是问题。

就Flume而言,您应该使用假脱机目录源,而不是将Exec源与cattail -f一起使用。否则,Flume Agent不能读取“文件更新”,而只能读取“最近已见”的文件。然后将其标记为完成,并在以后移动/忽略它们。

因此,您需要这样的东西,它在每次运行过程时都会生成一个带有时间戳的文件。这足以使Flume说该文件是新文件,应该对其进行读取/处理。

some_process >> /flume_watcher/output_$(date +%s%3N).txt

请参见Spooling Directorywhy Exec Source is discouraged(红色框)。


其他通知:HDP has deprecated Flume,并建议使用Hortonworks DataFlow(Apache Nifi)。即在HDP 3.0沙箱中(如果有的话),就不会有Flume。因此,不要浪费太多时间。

答案 1 :(得分:0)

尝试在conf文件中使用经过以下修改的原始配置文件:

a1.sinks.sink1.channel = memoryChannel

请注意,您还有一个额外的's',因为根据Flume documentation,正确的属性仅是channel。我认为它应该与hdfs Sink一起执行exec源。

您可能还需要修复警告消息:未设置JAVA_HOME。