使用ELK堆栈时,我可以将数据直接推送到Kibana的数据存储中吗?

时间:2016-04-08 17:20:31

标签: redis elastic-stack

(已经提出了一个非常类似的问题,但没有答案)

我有一个作业处理器(node.js),它接受几个字段,对结果运行查询和数据操作,然后将最终结果发送到RabbitMQ队列。我和Bunyan一起设置了日志。

现在我们要记录结果。此日志中的典型记录如下所示:

{
"queryTime": 1460135319890,
"transID": "d5822210-8f87-4327-b43c-957b1ff96306", 
"customerID": "AF67879",
"processingTime": 2345,
"queryStartDate": "1/1/2016", 
"queryEndDate": "1/5/2016" 
"numRecords": 20, 
"docLength": 67868
}

组织已设置现有的ELK堆栈。我对Redis有足够的经验,只需将我想要的数据推送到ELK堆栈中的Redis实例就可以了。似乎比设置logstash和搞乱其配置容易得多。

我希望能够可视化customerID,processingTime和numRecords字段(开始)。 Kibana是正确的选择吗?我可以直接将数据推送到它而不是乱搞LogStash吗?

0 个答案:

没有答案