在作业运行时是否有任何方法可以解除对Hadoop节点的阻塞? 我累了重启数据节点,但它没有用。
这发生在slave1四次失败后发生此错误:
初始化attempt_201311231755_0030_m_000000_0时出错: java.io.IOException:期望一行不是流的结尾 在org.apache.hadoop.fs.DF.parseExecResult(DF.java:109) 在org.apache.hadoop.util.Shell.runCommand(Shell.java:179) 在org.apache.hadoop.util.Shell.run(Shell.java:134) 在org.apache.hadoop.fs.DF.getAvailable(DF.java:73) at org.apache.hadoop.fs.LocalDirAllocator $ AllocatorPerContext.getLocalPathForWrite(LocalDirAllocator.java:306) 在org.apache.hadoop.fs.LocalDirAllocator.getLocalPathForWrite(LocalDirAllocator.java:124) at org.apache.hadoop.fs.LocalDirAllocator.getLocalPathForWrite(LocalDirAllocator.java:108) 在org.apache.hadoop.mapred.TaskTracker.localizeJob(TaskTracker.java:776) 在org.apache.hadoop.mapred.TaskTracker.startNewTask(TaskTracker.java:1664) 在org.apache.hadoop.mapred.TaskTracker.access $ 1200(TaskTracker.java:97) 在org.apache.hadoop.mapred.TaskTracker $ TaskLauncher.run(TaskTracker.java:1629)