使用Fluentd将日志发送到BigQuery时遇到Json格式问题

时间:2015-12-08 01:30:58

标签: google-bigquery fluentd

我正在使用Fluentd插件将日志发送到BigQuery,但BQ插件似乎改变了":"到" =>"将数据发送给BigQuery时。 日志以key =>值到达BigQuery,而不是key:value格式。 我在td-agent.conf中有以下匹配定义

<match bq.*.*>
  type copy
  deep_copy true
  <store>
    type bigquery   
    auth_method json_key
    json_key /home/fereshteh/keys/LL-POC-9081311ba6a0.json    
    project my-poc
    dataset MY_POC
    table   LogMessage     
    auto_create_table true
    field_string body,header
#  buffer_chunk_limit    
#  buffer_chunk_records_limit 300  
    buffer_queue_limit 10240         
    num_threads 16
#   flush_interval  1
    buffer_type file
    buffer_path /var/log/td-agent/buffer/bq
  </store>
  <store>
    type file
    path /var/log/td-agent/bq-logtextmsg.log
  </store>
</match>    

使用&#34;复制&#34;功能,我能够验证源部分是否正常工作,并且复制的日志确实显示了json日志的正确格式,键:值。 但是,在BigQuery中,它们显示为key =&gt;值。 有关如何更改使用&#34;的任何建议:&#34;? BigQuery json_extract函数不喜欢&#34; =&gt;&#34;并期待&#34;:&#34; s。 感谢。

0 个答案:

没有答案