标签: apache-spark spark-dataframe
我们可以杀死正在运行的火花应用程序的一个工作(耗时)并继续下一个工作吗?
让我们说,Spark应用程序中有50个作业,其中一个占用更多时间(可能需要更多内存而不是我们配置的内容),那么我们可以杀掉那份工作并继续下一份工作吗?
然后我们可以稍后使用更高内存配置运行该作业(触发该作业的操作)
如果这不可能那么如何处理这些条件?
答案 0 :(得分:2)
你可以通过以下方式杀死正在运行的工作:
kill