重新运行黑名单Hadoop节点而不停止作业运行

时间:2013-12-03 07:43:16

标签: hadoop

在作业运行时是否有任何方法可以解除对Hadoop节点的阻塞? 我累了重启数据节点,但它没有用。

这发生在slave1四次失败后发生此错误:

  

初始化attempt_201311231755_0030_m_000000_0时出错:   java.io.IOException:期望一行不是流的结尾     在org.apache.hadoop.fs.DF.parseExecResult(DF.java:109)     在org.apache.hadoop.util.Shell.runCommand(Shell.java:179)     在org.apache.hadoop.util.Shell.run(Shell.java:134)     在org.apache.hadoop.fs.DF.getAvailable(DF.java:73)     at org.apache.hadoop.fs.LocalDirAllocator $ AllocatorPerContext.getLocalPathForWrite(LocalDirAllocator.java:306)     在org.apache.hadoop.fs.LocalDirAllocator.getLocalPathForWrite(LocalDirAllocator.java:124)       at org.apache.hadoop.fs.LocalDirAllocator.getLocalPathForWrite(LocalDirAllocator.java:108)     在org.apache.hadoop.mapred.TaskTracker.localizeJob(TaskTracker.java:776)     在org.apache.hadoop.mapred.TaskTracker.startNewTask(TaskTracker.java:1664)     在org.apache.hadoop.mapred.TaskTracker.access $ 1200(TaskTracker.java:97)     在org.apache.hadoop.mapred.TaskTracker $ TaskLauncher.run(TaskTracker.java:1629)

0 个答案:

没有答案