我们知道,由于连接错误问题,我们无法通过弹性搜索从python中获取超过10000行。我想从我的弹性簇中获取两个小时的数据,并且每5分钟要进行10000次观测。
1。)有什么方法可以将弹性搜索中的数据直接转储到csv或计数超过10000的Nosql数据库中。
我用python编写代码。
我正在使用Elasticsearch版本5
答案 0 :(得分:0)
尝试以下代码进行滚动查询
from elasticsearch import Elasticsearch, helpers
es = Elasticsearch()
es_index = "your_index_name"
documento = "your_doc_type"
body = {
"query": {
"term" : { "user" : user }
}
}
res = helpers.scan(
client = es,
scroll = '2m',
query = body,
index = es_index)