为了开发hadoop和spark作业的弹性测试,我需要能够通过代码停止(或杀死)任务(Mapper,Reducers或spark Actions)。理想的方法是通过CLI命令来完成它,但是非常感谢任何其他工具。
感谢。
答案 0 :(得分:1)
$ ps
将向您显示操作系统级别的进程。注意你即将死去的pid栏
$ kill -9 pid
将杀死它。 -9没有时间“很好地”终止进程,但是在极端偏见的情况下将其关闭。
kill sighup pid
会做得很好
但是,这会杀死这个过程。如果你只想杀死任务:$ mapred job -list
$ kill -9 pid