我有一个包含1000万份文档的索引。我需要按秒分组的文件数。我的查询如下:
query = {
"size": 0,
"aggs": {
"counts_per_second": {
"date_histogram": {
"field": "@timestamp",
"interval": "second"
}
}
}
}
总是会超时。即使我在10k文档索引上运行它,也需要3分钟。有没有办法提高这个查询的性能?我通过elasticsearch-py btw运行它。