将Spark数据帧写入MongoDB时出错

时间:2019-11-28 15:37:49

标签: mongodb dataframe apache-spark

当我尝试使用

从Spark写入MongoDB时

MongoSpark.save(df.write.option("collection", "hundredClub").mode("overwrite"))

MongoDB中的旧现有数据不会被覆盖,而是保持不变。 在附加模式下,数据帧行将附加在MongoDB中。

覆盖模式时出错:

couldn't find collection(hundredClub) using single partition.

找不到集合

0 个答案:

没有答案