elasticsearch aggs返回错误的计数

时间:2016-02-20 17:54:52

标签: elasticsearch aggregation

我试图进行一些聚合查询并解决一些问题。

GET /my_index/_search
{
"size" : 0,
"aggs":{
   "group_by":{
       "terms": {
            "field" : "category"
       }
   }
  }
  }

这让我回头:

"hits": {
  "total": 180,
  "max_score": 0,
  "hits": []
 },
"aggregations": {
  "group_by": {
     "doc_count_error_upper_bound": 0,
     "sum_other_doc_count": 1,
     "buckets": [
        {
           "key": "pf_rd_m",
           "doc_count": 139
        },
        {
           "key": "other",
           "doc_count": 13
        },
        {
           "key": "_encoding",
           "doc_count": 12
        },
        {
           "key": "ie",
           "doc_count": 10
        },
        {
           "key": "cadeaux",
           "doc_count": 2
        },
        {
           "key": "cartes",
           "doc_count": 2
        },
        {
           "key": "cheques",
           "doc_count": 2
        },
        {
           "key": "home",
           "doc_count": 2
        },
        {
           "key": "nav_logo",
           "doc_count": 1
        },
        {
           "key": "ref",
           "doc_count": 1
        }
     ]
  }

}

正如您所看到的,这告诉我有180个文档,但如果我在我的桶中执行每个键的doc_count的总和,我会发现更多元素......

这肯定是对弹性搜索标记化机制(https://www.elastic.co/guide/en/elasticsearch/guide/current/aggregations-and-analysis.html

所以我尝试了这个帖子中的解决方案,但仍然无法正常工作。这是我的映射

"properties":{
                            "status":{
                              "type":"integer",
                              "index":"analyzed"
                            },
                            "category":{
                              "type":"string",
                              "fields": {
                                "raw" : {
                                  "type": "string",
                                  "index": "not_analyzed"
                                }
                              }
                            },
                            "dynamic_templates": [
                                { "notanalyzed": {
                                      "match":              "*",
                                      "match_mapping_type": "string",
                                      "mapping": {
                                          "type":        "string",
                                          "index":       "not_analyzed"
                                      }
                                   }
                                }
                              ]
                          }

如你所见,我有一个名为" category"的字段。并添加" raw"作为一个not_analyzed字符串,但仍然返回错误的数字。

当我尝试这个时:

GET /my_index/_search
{
"size" : 0,
"aggs":{
   "group_by":{
       "terms": {
            "field" : "category.raw"
         }
      }
    }
  }

返回:

"hits": {
  "total": 180,
  "max_score": 0,
  "hits": []
},
"aggregations": {
  "group_by": {
     "doc_count_error_upper_bound": 0,
     "sum_other_doc_count": 0,
     "buckets": []
  }
}
这很奇怪。有什么帮助吗?

1 个答案:

答案 0 :(得分:3)

documentation中所述,

  

术语聚合中的文档计数(以及任何子聚合的结果)并不总是准确的。这是因为每个分片都提供了自己的视图,这些视图应该是有序的术语列表,并将它们组合在一起以提供最终视图

为了以牺牲资源为代价来克服这个问题,可以使用Shard size参数 再次,从文档:
碎片大小

  

请求的大小越高,结果越准确,而且,计算最终结果的成本也越高(两者都是由于在分片级别管理的更高优先级队列以及由于更大节点和客户端之间的数据传输)。   shard_size参数可用于最大限度地减少请求大小所需的额外工作。定义后,它将确定协调节点将从每个分片请求多少个术语。一旦所有分片响应,协调节点将把它们减少到最终结果,这将基于大小参数 - 这样,可以提高返回条款的准确性,并避免流回大量桶的开销给客户。如果设置为0,则shard_size将设置为Integer.MAX_VALUE

如果将分片大小参数添加到查询中:

GET /my_index/_search
{
"size" : 0,
"aggs":{
   "group_by":{
       "terms": {
            "field" : "category.raw",
            "shard_size" : 0
         }
      }
    }
  }