我想使用流利的Kubernetes解析入口nginx日志。在Logstash中这很容易,但我对流利的语法感到困惑。
现在我有以下规则:
<source>
type tail
path /var/log/containers/*.log
pos_file /var/log/es-containers.log.pos
time_format %Y-%m-%dT%H:%M:%S.%NZ
tag kubernetes.*
format json
read_from_head true
keep_time_key true
</source>
<filter kubernetes.**>
type kubernetes_metadata
</filter>
结果我得到了这个日志但它没有被解析:
127.0.0.1 - [127.0.0.1] - user [27/Sep/2016:18:35:23 +0000] "POST /elasticsearch/_msearch?timeout=0&ignore_unavailable=true&preference=1475000747571 HTTP/2.0" 200 37593 "http://localhost/app/kibana" "Mozilla/5.0 (X11; Linux x86_64) AppleWebKit/537.36 (KHTML, like Gecko) Centos Chromium/52.0.2743.116 Chrome/52.0.2743.116 Safari/537.36" 951 0.408 10.64.92.20:5601 37377 0.407 200
我想应用过滤规则,以便能够在Kibana中通过IP地址,HTTP方法等进行搜索。我该如何实现呢?
答案 0 :(得分:8)
管道在logstash和流利方面有很大不同。并且花了一些时间来构建工作Kubernetes - &gt;流利 - &gt; Elasticsearch - &gt; Kibana解决方案。
我的问题的简短回答是安装 fluent-plugin-parser 插件(我想知道它为什么不在标准包中发货)并将此规则放在 kubernetes_metadata之后过滤器:
<filter kubernetes.var.log.containers.nginx-ingress-controller-**.log>
type parser
format /^(?<host>[^ ]*) (?<domain>[^ ]*) \[(?<x_forwarded_for>[^\]]*)\] (?<server_port>[^ ]*) (?<user>[^ ]*) \[(?<time>[^\]]*)\] "(?<method>\S+[^\"])(?: +(?<path>[^\"]*?)(?: +\S*)?)?" (?<code>[^ ]*) (?<size>[^ ]*)(?: "(?<referer>[^\"]*)" "(?<agent>[^\"]*)")? (?<request_length>[^ ]*) (?<request_time>[^ ]*) (?:\[(?<proxy_upstream_name>[^\]]*)\] )?(?<upstream_addr>[^ ]*) (?<upstream_response_length>[^ ]*) (?<upstream_response_time>[^ ]*) (?<upstream_status>[^ ]*)$/
time_format %d/%b/%Y:%H:%M:%S %z
key_name log
types server_port:integer,code:integer,size:integer,request_length:integer,request_time:float,upstream_response_length:integer,upstream_response_time:float,upstream_status:integer
reserve_data yes
</filter>
这里有很多例子的长答案:https://github.com/kayrus/elk-kubernetes/
答案 1 :(得分:0)
您可以使用多格式解析器插件https://github.com/repeatedly/fluent-plugin-multi-format-parser
<match>
format multi_format
<pattern>
format json
</pattern>
<pattern>
format regexp...
time_key timestamp
</pattern>
<pattern>
format none
</pattern>
</match>
注意:我很好奇最后的conf看起来像包括过滤器解析器。
答案 2 :(得分:0)
<match fluent.**>
@type null
</match>
<source>
@type tail
path /var/log/containers/nginx*.log
pos_file /data/fluentd/pos/fluentd-nginxlog1.log.pos
tag nginxlogs
format none
read_from_head true
</source>
<filter nginxlogs>
@type parser
format json
key_name message
</filter>
<filter nginxlogs>
@type parser
format /^(?<host>[^ ]*) (?<domain>[^ ]*) \[(?<x_forwarded_for>[^\]]*)\] (?<server_port>[^ ]*) (?<user>[^ ]*) \[(?<time>[^\]]*)\] "(?<method>\S+[^\"])(?: +(?<path>[^\"]*?)(?: +\S*)?)?" (?<code>[^ ]*) (?<size>[^ ]*) "(?<referer>[^\"]*)" "(?<agent>[^\"]*)" (?<request_length>[^ ]*) (?<request_time>[^ ]*) (?:\[(?<proxy_upstream_name>[^\]]*)\] )?(?<upstream_addr>[^ ]*) (?<upstream_response_length>[^ ]*) (?<upstream_response_time>[^ ]*) (?<upstream_status>[^ ]*) \w*$/
time_format %d/%b/%Y:%H:%M:%S %z
key_name log
# types server_port:integer,code:integer,size:integer,request_length:integer,request_time:float,upstream_response_length:integer,upstream_response_time:float,upstream_status:integer
</filter>
<match nginxlogs>
@type stdout
</match>
答案 3 :(得分:-1)
因为,您使用json格式进行解析。 试试这个。 http://docs.fluentd.org/articles/recipe-nginx-to-elasticsearch
如果您使用自定义格式,则可能需要编写自己的正则表达式。 http://docs.fluentd.org/articles/in_tail