标签: scala apache-spark spark-streaming rdd
我有例如来自流式上下文的RDD,我在其上执行map,filter和count,让我的系统运行一段时间。
map
filter
count
基于某些输入,我想在运行时完全修改此处理,例如map,map,flatMap。
flatMap
如何在初始化处理流程实现并运行后,在运行时替换整个处理流程? 我是否需要停止上下文并重新启动它,还是有其他运行时选项?