Hadoop:配置对象时出错

时间:2012-01-24 00:06:31

标签: java exception hadoop mapreduce cloudera

我正在尝试运行Terasort基准测试,但我得到以下异常:

java.lang.RuntimeException: Error in configuring object
    at org.apache.hadoop.util.ReflectionUtils.setJobConf(ReflectionUtils.java:93)
    at org.apache.hadoop.util.ReflectionUtils.setConf(ReflectionUtils.java:64)
    at org.apache.hadoop.util.ReflectionUtils.newInstance(ReflectionUtils.java:117)
    at org.apache.hadoop.mapred.MapTask$OldOutputCollector.<init>(MapTask.java:573)
    at org.apache.hadoop.mapred.MapTask.runOldMapper(MapTask.java:435)
    at org.apache.hadoop.mapred.MapTask.run(MapTask.java:371)
    at org.apache.hadoop.mapred.Child$4.run(Child.java:259)
    at java.security.AccessController.doPrivileged(Native Method)
    at javax.security.auth.Subject.doAs(Subject.java:396)
    at org.apache.hadoop.security.UserGroupInformation.doAs(UserGroupInformation.java:1059)
    at org.apache.hadoop.mapred.Child.main(Child.java:253)
Caused by: java.lang.reflect.InvocationTargetException
    at sun.reflect.NativeMethodAccessorImpl.invoke0(Native Method)
    at sun.reflect.NativeMethodAccessorImpl.invoke(NativeMethodAccessorImpl.java:39)
    at sun.reflect.DelegatingMethodAccessorImpl.invoke(DelegatingMethodAccessorImpl.java:25)
    at java.lang.reflect.Method.invoke(Method.java:597)
    at org.apache.hadoop.util.ReflectionUtils.setJobConf(ReflectionUtils.java:88)
    ... 10 more
Caused by: java.lang.IllegalArgumentException: can't read paritions file
    at org.apache.hadoop.examples.terasort.TeraSort$TotalOrderPartitioner.configure(TeraSort.java:213)
    ... 15 more
Caused by: java.io.FileNotFoundException: File _partition.lst does not exist.
    at org.apache.hadoop.fs.RawLocalFileSystem.getFileStatus(RawLocalFileSystem.java:371)
    at org.apache.hadoop.fs.FilterFileSystem.getFileStatus(FilterFileSystem.java:245)
    at org.apache.hadoop.fs.FileSystem.getLength(FileSystem.java:720)
    at org.apache.hadoop.io.SequenceFile$Reader.<init>(SequenceFile.java:1417)
    at org.apache.hadoop.io.SequenceFile$Reader.<init>(SequenceFile.java:1412)
    at org.apache.hadoop.examples.terasort.TeraSort$TotalOrderPartitioner.readPartitions(TeraSort.java:153)
    at org.apache.hadoop.examples.terasort.TeraSort$TotalOrderPartitioner.configure(TeraSort.java:210)
    ... 15 more

TeraGen命令运行正常,并为TeraSort创建了输入文件。这是我的输入目录列表:

bin/hadoop fs -ls /user/hadoop/terasort-input/Warning: Maximum heap size rounded up to 1024 MB
Found 5 items
-rw-r--r--   1 sqatest supergroup           0 2012-01-23 14:13 /user/hadoop/terasort-input/_SUCCESS
drwxr-xr-x   - sqatest supergroup           0 2012-01-23 13:30 /user/hadoop/terasort-input/_logs
-rw-r--r--   1 sqatest supergroup         129 2012-01-23 15:49 /user/hadoop/terasort-input/_partition.lst
-rw-r--r--   1 sqatest supergroup 50000000000 2012-01-23 13:30 /user/hadoop/terasort-input/part-00000
-rw-r--r--   1 sqatest supergroup 50000000000 2012-01-23 13:30 /user/hadoop/terasort-input/part-00001

这是我运行terasort的命令:

bin/hadoop jar hadoop-examples-0.20.203.0.jar terasort -libjars hadoop-examples-0.20.203.0.jar /user/hadoop/terasort-input /user/hadoop/terasort-output

我确实在输入目录中看到了_partition.lst文件,我不明白为什么我会收到FileNotFoundException。

我按照http://www.michael-noll.com/blog/2011/04/09/benchmarking-and-stress-testing-an-hadoop-cluster-with-terasort-testdfsio-nnbench-mrbench/

提供的设置详情进行操作

4 个答案:

答案 0 :(得分:0)

我按照以下方式工作:

我从我的hadoop基目录运行本地模式,hadoop-1.0.0下面有一个输入子目录,我得到了同样的错误。

我编辑了失败的java文件,让它记录路径而不是文件名,重建它(“ant binary”),然后重新编写它。它正在我运行的目录中查找该文件。我不知道它是在查看hadoop基础目录还是执行目录。

...所以我在运行terasort的目录中创建了一个符号链接,指向输入目录中的真实文件。

这是一个廉价的黑客,但它确实有效。

- Tim.

答案 1 :(得分:0)

问题出现了,因为我正在NFS上部署作业。我更改了hadoop.tmp.dir,将其指向本地文件系统(/ tmp),问题在jiffy中消失了。

答案 2 :(得分:0)

您是否已设置为以伪分布式模式(或真实群集)运行?除非您配置Hadoop,否则它将以本地作业运行程序模式运行(作为单个进程内的库) - Terasort不能在LocalJobRunner模式下运行。在输出中查找单词LocalJobRunner以进行检查。

以下是设置HDFS,SSH和rsync的链接:  http://hadoop.apache.org/docs/r1.1.1/single_node_setup.html#PseudoDistributed

答案 3 :(得分:0)

我正在使用cloudera CDH4。与我的其他hadoop计划面临类似的问题。 相信问题是关于连接外部库。

该程序在Eclipse(本地模式)下运行良好,但是当我尝试在伪分布式模式下运行时,收到此错误消息。

临时解决方案: - 使用库处理选项从Eclipse创建了一个jar文件 - 将所需的库复制到生成的JAR旁边的子文件夹中。 - 将JAR文件复制到hadoop主目录(放置hadoop-exampls.jar文件的路径)

使用此修复程序可以运行hadoop程序而不会出现任何错误。 希望这有帮助