我有一个AWS ElasticSearch集群,并在其上创建了一个索引。 我想在该索引中上传一百万个文档。 我正在使用Python软件包Elasticsearch版本6.0.0。
我的有效负载结构与此相似-
{
"a":1,
"b":2,
"a_info":{
"id":1,
"name":"Test_a"
},
"b_info":{
"id":1,
"name":"Test_b"
}
}
在注释部分进行讨论之后,我意识到文档中的字段总数还包括其子字段。因此,就我而言,每个文档中的字段总数达到60个。
我尝试了以下方法-
在这种方法中,我还尝试了批量上传100个文档,但是仍然超时。
TransportError(500, u'timeout_exception', u'Failed to acknowledge mapping update within [30s]')
我的索引设置是这些-
{"Test":{"settings":{"index":{"mapping":{"total_fields":{"limit":"200000000"}},"number_of_shards":"5","provided_name":"Test","creation_date":"1557835068058","number_of_replicas":"1","uuid":"LiaKPAAoRFO6zWu5pc7WDQ","version":{"created":"6050499"}}}}}
我是ElasticSearch域的新手。如何快速将文档上传到AWS ES Cluster?