Elasticsearch:聚合大量数据

时间:2018-04-18 03:49:55

标签: python elasticsearch

我有一个包含1000万份文档的索引。我需要按秒分组的文件数。我的查询如下:

query = {
  "size": 0,
  "aggs": {
    "counts_per_second": {
      "date_histogram": {
        "field": "@timestamp",
        "interval": "second"
      }
    }
  }
}

总是会超时。即使我在10k文档索引上运行它,也需要3分钟。有没有办法提高这个查询的性能?我通过elasticsearch-py btw运行它。

0 个答案:

没有答案