Flume - HDFS中单个文件中的2条消息

时间:2018-03-19 18:55:42

标签: xml apache hdfs flume flume-ng

我正在尝试使用Apache Flume从IBM MQ获取消息。我得到了以下配置:

# Source definition
u.sources.s1.type=jms
u.sources.s1.initialContextFactory=ABC
u.sources.s1.connectionFactory=<my connection factory>
u.sources.s1.providerURL=ABC
u.sources.s1.destinationName=r1
u.sources.s1.destinationType=QUEUE
# Channel definition
u.channels.c1.type=file
u.channels.c1.capacity=10000000
u.channels.c1.checkpointDir=/checkpointdir
u.channels.c1.transactionCapacity=10000
u.channels.c1.dataDirs=/datadir
# Sink definition
u.sinks.r1.type=hdfs
u.sinks.r1.channel=c1
u.sinks.r1.hdfs.path=/message/%Y%m%d
u.sinks.r1.hdfs.filePrefix=e_
u.sinks.r1.hdfs.fileSuffix=.xml
u.sinks.r1.hdfs.fileType = DataStream
u.sinks.r1.hdfs.writeFormat=Text
u.sinks.r1.hdfs.useLocalTimeStamp=TRUE

问题在于,当我提取消息时,2条消息被合并为一条消息。

例如: 假设Source发出3 xml消息:

  1. <id>1</id><name>Test 1</name>

  2. <id>2</id><name>Test 2</name>

  3. <id>3</id><name>Test 3</name>

  4. 当我在HDFS中收到相同的消息时,请在2 xml文件中获取消息,如下所示:

    event_1.xml

    <id>1</id><name>Test 1</name>
    <id>2</id><name>Test 2</name>
    

    event_2.xml

    <id>3</id><name>Test 3</name>
    

    预期结果是将所有3 xml消息放在HDFS中的3个单独文件中,如event_1.xml; event_2.xml; event_3.xml

1 个答案:

答案 0 :(得分:0)

使用接收器中的以下配置解决它:

hdfs.rollSize=0
hdfs.rollInterval=1
hdfs.rollCount=1

这有助于将消息作为单个消息提取,而不是将两个消息合并为一个消息。