如何通过弹性搜索将性能测试日志推送到kibana

时间:2018-06-07 03:45:01

标签: elasticsearch logstash kibana hp-performance-center

是否有可能将从Performance Center获取的分析报告推送到Logstash并在Kibana中将其可视化?我只想自动执行检查每个vuser日志文件的任务,然后将错误推送到ELK堆栈。如何通过脚本检索文件并自动执行此操作。我无法得到任何指示,因为我需要自动执行从每个vuser_log文件中自动读取的任务。

1 个答案:

答案 0 :(得分:1)

Filebeat 应该是您完成上述工作的工具。

要自动读取您在文件中写入的条目(可能是日志文件),您只需要一个托盘工具,它可以是Filebeat(它与ELK堆栈很好地集成.Logstash也可以做同样的事情但是那个'很重,需要JVM)

要在ELK堆栈中执行此操作,您需要执行以下操作:

  1. Filebeat 应设置为" all"主应用程序正在运行的实例 - 并生成日志。 Filebeat是一个简单的轻量级托运工具,可以读取您的日志条目,然后将它们发送到Logstash。
  2. 设置一个 Logstash 的实例(即ELK的L),它将从Filebeat接收事件。 Logstash将数据发送到Elastic Search
  3. 设置弹性搜索的一个实例(ELK的那个E),用于存储数据
  4. 设置 Kibana 的一个实例(即ELK的K)。 Kibana是通过Rest调用查看Elastic搜索并与之交互的前端工具
  5. 请参阅以下链接进行上述设置:

    check(\[locator\], options) method