我有一个问题,对于相同的消息ID,Kafka会发生多个事件。我想使用logstash将事件推送到嵌套文档中的弹性搜索中。 我们如何通过logstash将数据作为嵌套文档推入Elasticsearch中。
有人可以在这方面提供帮助吗?
示例:
Msg_id-m1 事件-msg_received 时间戳-1235
Msg_id-m1 事件-msg_delivered 时间戳-1236
这些事件可以使用不同的时间戳记,msg_id的第一个事件将创建父文档。 我希望弹性搜索中的数据看起来像
“ ts”:“ 1234”, “ id”:“ m1”, “集合”:[ { “ ts”:“ 1234”, “ et”:“ msg_requested” }, { “ ts”:“ 1235”, “ et”:“ msg_received” }, { “ ts”:“ 1236”, “ et”:“ msg_delivered” } ] }