我使用的是1.0.4版。有一些工作一直在悬挂,所以我一直试图杀死工作岗位以释放源......然而,杀戮命令似乎没有用......这就是我在做的事情:
hadoop job -list
JobId State StartTime UserName Priority SchedulingInfo
job_1 1 1473112865969 xyz NORMAL NA
hadoop job -kill job_1
Killed job job_2
在此之后,我再次运行list命令,被杀的作业仍在那里:
hadoop job -list
JobId State StartTime UserName Priority SchedulingInfo
job_1 1 1473112865969 xyz NORMAL NA
我已经搜索过该问题,但除了一些未经回答的论坛条目之外,找不到任何其他内容。
其他人在hadoop上有类似的问题杀死工作?有什么其他方法可以杀死1.0版本的hadoop上的正在运行的作业吗?
答案 0 :(得分:1)
你正在解雇的命令对我来说似乎是正确的,只有我怀疑的是用户权限,可能是你用来杀死这份工作的用户没有足够的权限。
你也是从命令中杀死job_1,作为回应,它说杀了job_2。
hadoop job -kill job_1 被解雇的职位_2
答案 1 :(得分:1)
尝试使用以下命令
mapred job -list
mapred job -kill $jobId
yarn application -list
yarn application -kill $jobId
答案 2 :(得分:0)
好吧,在挖掘代码和集群几个小时之后,发现用于mrlocal目录的磁盘出现故障(即无法访问),因此tasktracker停止了0错误日志...更改了mrlocal目录后在群集上并重新启动跟踪器,一切都恢复正常,所有挂起的作业在重启时自动被杀死...