我正在研究8节点Hadoop集群,我正在尝试使用指定的配置执行简单的流式作业。
hadoop jar /usr/lib/hadoop-0.20/contrib/streaming/hadoop-streaming-0.20.2-cdh3u0.jar \-D mapred.map.max.tacker.failures=10 \-D mared.map.max.attempts=8 \-D mapred.skip.attempts.to.start.skipping=8 \-D mapred.skip.map.max.skip.records=8 \-D mapred.skip.mode.enabled=true \-D mapred.max.map.failures.percent=5 \-input /user/hdfs/ABC/ \-output "/user/hdfs/output1/" \-mapper "perl -e 'while (<>) { chomp; print; }; exit;" \-reducer "perl -e 'while (<>) { ~s/LR\>/LR\>\n/g; print ; }; exit;"
我正在使用cloudera的hadoop CDH3u0发布,其中hadoop为0.20.2。执行这项工作的问题是每次工作都失败了。这项工作给出了错误:
java.lang.Throwable: Child Error
at org.apache.hadoop.mapred.TaskRunner.run(TaskRunner.java:242)
Caused by: java.io.IOException: Task process exit with nonzero status of 1.
at org.apache.hadoop.mapred.TaskRunner.run(TaskRunner.java:229)
-------
java.lang.Throwable: Child Error
at org.apache.hadoop.mapred.TaskRunner.run(TaskRunner.java:242)
Caused by: java.io.IOException: Task process exit with nonzero status of 1.
at org.apache.hadoop.mapred.TaskRunner.run(TaskRunner.java:229)
STDERR on the datanodes:
Exception in thread "main" java.io.IOException: Exception reading file:/mnt/hdfs/06/local/taskTracker/hdfs/jobcache/job_201107141446_0001/jobToken
at org.apache.hadoop.security.Credentials.readTokenStorageFile(Credentials.java:146)
at org.apache.hadoop.mapreduce.security.TokenCache.loadTokens(TokenCache.java:159)
at org.apache.hadoop.mapred.Child.main(Child.java:107)
Caused by: java.io.FileNotFoundException: File file:/mnt/hdfs/06/local/taskTracker/hdfs/jobcache/job_201107141446_0001/jobToken does not exist.
对于错误原因,我检查了以下内容,但仍然崩溃,我无法理解原因。
1. All the temp directories are in place
2. Memory is way more than it might be required for job (running a small job)
3. Permissions verified.
4. Nothing Fancier done in the configuration just usual stuff.
最奇怪的是,工作有时会成功运行并且大部分时间都会失败。有关这些问题的任何指导/帮助都会非常有用。我正在处理过去4天的这个错误,我无法弄清楚任何事情。请帮助!!!
谢谢&amp;问候, 阿图尔
答案 0 :(得分:1)
我遇到了同样的问题,如果任务跟踪器无法为该任务的子JVM分配指定的内存,就会发生这种情况。
当群集不忙于运行许多其他作业时,尝试再次执行相同的作业,它将通过或推测执行为true,在这种情况下,hadoop将在另一个任务跟踪器中执行相同的任务。