标签: mongodb apache-spark spark-streaming
我刚开始使用scala-spark。我想从MongoDB中读取数据以及将要发送到MongoDB的流数据。我知道有多种功能可以从MongoDB中读取数据,例如“ spark.read.mongo”,还有一个单独的功能可以使用“ spark.readStream”流式传输数据。但是我想知道是否有一种方法可以同时执行两个任务。
PS:我尝试在堆栈溢出中搜索相同内容,但找不到任何内容。如果已经有类似的问题,请引导我去解决。