有没有办法在spark中使用JavaEsSpark api时设置分片数和副本数

时间:2016-02-25 05:57:00

标签: elasticsearch apache-spark rdd

我正在使用JavaEsSpark在spark中使用ElasticSearch,我希望在创建索引时更改elasticsearch的默认no_of_shards。

下面是我正在使用的代码行创建索引以及在其中写入rdd但是如何在此中设置没有分片?

 JavaEsSpark.saveToEs(stringRDD, "index_name/docs");

我也尝试过设置sparkConf对象但仍无法正常工作。

0 个答案:

没有答案