从cli开始并杀死hadoop任务

时间:2015-12-01 11:16:03

标签: java linux hadoop apache-spark qa

为了开发hadoop和spark作业的弹性测试,我需要能够通过代码停止(或杀死)任务(Mapper,Reducers或spark Actions)。理想的方法是通过CLI命令来完成它,但是非常感谢任何其他工具。

感谢。

1 个答案:

答案 0 :(得分:1)

$ ps     

将向您显示操作系统级别的进程。注意你即将死去的pid栏

$ kill -9 pid

将杀死它。 -9没有时间“很好地”终止进程,但是在极端偏见的情况下将其关闭。

kill sighup pid 

会做得很好

但是,这会杀死这个过程。如果你只想杀死任务:

$ mapred job -list
$ kill -9 pid