如何知道我的火花流式传输查询没有任何新的kafka记录消耗?

时间:2018-06-12 07:35:33

标签: apache-spark apache-kafka

我正在启动一个Spark结构化流式传输查询,如下所示:

val strquery = tempDataFrame2.writeStream.outputMode("append").queryName("table").format("console").start()

但是我不知道在这个语句中使用了哪些其他参数,以便spark知道没有kafka记录可以使用并立即停止流式传输?

0 个答案:

没有答案
相关问题