如何使用spark将数据附加到mongodb中的现有文档?

时间:2017-08-01 22:18:24

标签: mongodb apache-spark spark-dataframe

当我使用其他来源的Spark迁移数据时,我正在尝试将数据附加到集合中的现有文档。我搜索了文档但我没有找到任何文件。

任何形式的帮助都将受到赞赏。

感谢。

1 个答案:

答案 0 :(得分:0)

我正在研究这个问题,我发现你可以将一个带有现有 _id 的文件从spark数据框附加到MongoDB,你可以使用:

MongoSpark.save(df.write.mode("append"))

在模式"追加"连接器将使用存在的 _id 将所有字段附加到文档中,注意它将删除您要写入数据库的数据帧中不存在的字段。

来源:https://groups.google.com/forum/#!topic/mongodb-user/eF-qdpYbFS0