标签: mongodb dataframe apache-spark
当我尝试使用
MongoSpark.save(df.write.option("collection", "hundredClub").mode("overwrite"))
MongoDB中的旧现有数据不会被覆盖,而是保持不变。 在附加模式下,数据帧行将附加在MongoDB中。
覆盖模式时出错:
couldn't find collection(hundredClub) using single partition.
找不到集合