hadoop job -kill <id>无法杀死

时间:2016-09-12 05:42:27

标签: java hadoop

我使用的是1.0.4版。有一些工作一直在悬挂,所以我一直试图杀死工作岗位以释放源......然而,杀戮命令似乎没有用......这就是我在做的事情:

hadoop job -list

JobId   State   StartTime   UserName    Priority    SchedulingInfo
job_1   1   1473112865969   xyz            NORMAL   NA

hadoop job -kill job_1
Killed job job_2

在此之后,我再次运行list命令,被杀的作业仍在那里:

hadoop job -list

JobId   State   StartTime   UserName    Priority    SchedulingInfo
job_1   1   1473112865969   xyz            NORMAL   NA

我已经搜索过该问题,但除了一些未经回答的论坛条目之外,找不到任何其他内容。

其他人在hadoop上有类似的问题杀死工作?有什么其他方法可以杀死1.0版本的hadoop上的正在运行的作业吗?

3 个答案:

答案 0 :(得分:1)

你正在解雇的命令对我来说似乎是正确的,只有我怀疑的是用户权限,可能是你用来杀死这份工作的用户没有足够的权限。

你也是从命令中杀死job_1,作为回应,它说杀了job_2。

hadoop job -kill job_1 被解雇的职位_2

答案 1 :(得分:1)

尝试使用以下命令

mapred job -list

mapred job -kill $jobId

yarn application -list

yarn application -kill $jobId

答案 2 :(得分:0)

好吧,在挖掘代码和集群几个小时之后,发现用于mrlocal目录的磁盘出现故障(即无法访问),因此tasktracker停止了0错误日志...更改了mrlocal目录后在群集上并重新启动跟踪器,一切都恢复正常,所有挂起的作业在重启时自动被杀死...