我使用Fluentd在HDFS中捕获和合并Apache日志数据。我将代理配置为将数据写入HDFS,即/etc/td-agent/td-agent.conf
文件包含:
<source>
type tail
path /var/log/httpd/access_log
pos_file /var/log/td-agent/httpd-access.log.pos
tag apache.access
format apache2
</source>
<match apache.access>
type webhdfs
host fqdn.of.name.node
port 50070
path /data/access_logs/access.log.%Y%m%d_%H.${hostname}.log
flush_interval 10s
</match>
我根据Fluentd documentation启用了HDFS附加功能。数据流完美。在过去的几周里,它已经流畅地传输了数百万笔交易。
数据存储在包含以下行的文件中:
2015-01-10T17:00:00Z apache.access {"host":"155.96.21.4","user":null,"method":"GET","path":"/somepage/index.html","code":200,"size":8192,"referer":null,"agent":"Mozilla/4.0 (compatible; MSIE 7.0; Windows NT 6.1; WOW64; Trident/7.0; SLCC2; .NET CLR 2.0.50727; .NET4.0C; .NET4.0E)"}
每行包含三个制表符分隔的元素:
我正在尝试创建一个Hive表,并且不确定如何处理它是每行上的制表符分隔字符串和JSON的混合。我知道Hive有一个JSON解串器,但我不认为它会起作用,因为这些记录不是纯粹的JSON。
是否有人建议如何为此数据编写create table语句?
答案 0 :(得分:0)
尝试将以下参数添加到out_wedhdfs配置中:
output_data_type json
这应该记录在案。我会尽快更新文档。