启用spark.streaming.stopGracefullyOnShutdown时,在spark 2.1.0中正常杀死流媒体作业存在问题 我已经在很多方面测试过火花工作,我得出了一些结论。
然后我注意到我使用了param: - supervise所以我重复了这些没有这个标志的测试。事实证明,1.和2.方法的工作方式与之前相同但是3.方法的工作方式与我假设的一样。这意味着,调用kill driver-process job - spark会消化来自kafka的所有消息,这些消息会优雅地拒绝作业。它当然是一些解决方案,但非常不方便,因为我必须使用驱动程序跟踪机器而不是使用简单的spark REST端点。第二个缺点是我不能使用旗帜"监督"所以每当有火花驱动器的节点出现故障而不是停止工作时。
是否有人能够解释为什么关于这个案例有这么多问题以及为什么1和2方法的工作方式不同于3.杀人。