我做了这个教程Running Hadoop On Ubuntu Linux (Single-Node Cluster),一切正常。之后我尝试了这个Running Hadoop On Ubuntu Linux (Multi-Node Cluster)enter link description here,但我听到了以下错误:
记录文件:
2012-11-15 18:40:39,258 WARN org.apache.hadoop.mapred.ReduceTask: java.io.FileNotFoundException: http://localhost:50060/mapOutput?job=job_201211151832_0002&map=attempt_201211151832_0002_m_000000_0&reduce=0
at sun.net.www.protocol.http.HttpURLConnection.getInputStream(HttpURLConnection.java:1613)
at org.apache.hadoop.mapred.ReduceTask$ReduceCopier$MapOutputCopier.getInputStream(ReduceTask.java:1639)
at org.apache.hadoop.mapred.ReduceTask$ReduceCopier$MapOutputCopier.setupSecureConnection(ReduceTask.java:1575)
at org.apache.hadoop.mapred.ReduceTask$ReduceCopier$MapOutputCopier.getMapOutput(ReduceTask.java:1483)
at org.apache.hadoop.mapred.ReduceTask$ReduceCopier$MapOutputCopier.copyOutput(ReduceTask.java:1394)
at org.apache.hadoop.mapred.ReduceTask$ReduceCopier$MapOutputCopier.run(ReduceTask.java:1326)
终端出错:
12/11/15 18:42:18 WARN mapred.JobClient: Error reading task outputhttp://localhost:50060/tasklog?plaintext=true&attemptid=attempt_201211151832_0002_m_000001_0&filter=stderr
我还检查了是否存在日志目录磁盘空间不足的问题,但事实并非如此。
我正在使用Hadoop 1.0.4。
导致此错误的原因是什么?
其他一些信息: 主节点是LinuxMint 13 x64(Oracle Java 7 x64),从节点是Ubuntu 12.04 x86(Oracle Java x86)。
使用两个不同版本的Java(x86和x64)是否可能导致此错误?