如何在ELK中分析来自多个来源的日志

时间:2016-04-01 15:00:29

标签: elasticsearch logstash kibana elastic-stack

我最近开始研究ELK并且对处理多种类型的日志有疑问。 我的服务器上有两组我要分析的日志,一个来自我的android应用程序,另一个来自我的网站。我已成功通过filebeat将日志从此服务器传输到ELK服务器。 我为这两种类型的日志创建了两个过滤器,并已成功将这些日志导入logstash,然后是Kibana。

此链接有助于完成上述工作。

https://www.digitalocean.com/community/tutorials/how-to-install-elasticsearch-logstash-and-kibana-elk-stack-on-centos-7

以上链接指示使用Kibana中filebeat索引中的日志并开始分析(我成功地为一种类型的日志做了)。但我面临的问题是,由于这两个日志都非常不同,因此需要对它们进行不同的分析。我怎么在Kibana做这个。我应该在那里创建多个filebeat索引并导入它们,或者它应该只是一个索引,还是其他方式。我对此不是很清楚(找不到太多文件),因此请求帮助并指导我。

1 个答案:

答案 0 :(得分:0)

Elasticsearch按索引和类型进行组织。 Elastic用于将这些与SQL概念进行比较,但现在提供new explanation

由于您说日志非常不同,Elastic表示您应该使用不同的索引。

在Kibana中,可视化与索引相关联。如果每个索引都有一个面板,则可以在同一个仪表板上显示它们。