Kibana + elasticsearch将消息分解为单词

时间:2016-09-05 10:03:39

标签: elasticsearch kibana filebeat

我想分析我的kibana面板中的消息: enter image description here

我不希望它被标记化。

我通过filebeat发送日志并在logstash中添加过滤器。

Logstash + Kibana terms panel without breaking words的帮助下,我用来更新的curl命令是:

curl -XPUT https://localhost:9200/_template/filebeat -d '
{
    "template": "filebeat-*",
    "mappings": {
        "type": {
            "properties": {
               "message": {
                  "type": "multi_field",
                  "fields": {
                     "message": {
                         "type": "string",
                         "index": "analyzed"
                     },
                     "untouched": {
                         "type": "string",
                         "index": "not_analyzed"
                     }
                 }
            }
        }
    }
}'

但回应是:

curl: (35) gnutls_handshake() failed: The TLS connection was non-properly terminated.

我做错了什么?我需要做些什么才能达到预期的效果。

修改:上述curl命令的问题是使用https而不是http。但是,它仍然没有用。

1 个答案:

答案 0 :(得分:0)

您可以构建自定义分析器并将其标记符设置为“关键字”,如下所示。

{
    "settings": {
        "analysis": {
             "analyzer":{
               "my_analyzer":{

                   "tokenizer":   {"keyword"},
                   "filter":      {" Standard Token Filter", "Lower Case Token Filter", "Stop Token Filter"},

                }
             }
        }
    }
    "mappings": ..........
}