有没有一种方法可以通过apache-spark传输数据以及读取MongoDB中已经存在的数据

时间:2019-05-16 09:27:27

标签: mongodb apache-spark spark-streaming

我刚开始使用scala-spark。我想从MongoDB中读取数据以及将要发送到MongoDB的流数据。我知道有多种功能可以从MongoDB中读取数据,例如“ spark.read.mongo”,还有一个单独的功能可以使用“ spark.readStream”流式传输数据。但是我想知道是否有一种方法可以同时执行两个任务。

PS:我尝试在堆栈溢出中搜索相同内容,但找不到任何内容。如果已经有类似的问题,请引导我去解决。

0 个答案:

没有答案