我用以下代码编写了MRunit:
Configuration conf = new Configuration();
conf.set("fs.defaultFS", "file:///");
conf.set("fs.default.name", "file:///");
conf.set("mapreduce.framework.name", "local");
conf.setInt("mapreduce.task.io.sort.mb", 1);
Path input = new Path("input/ncdc/micro");
Path output = new Path("output");
FileSystem fs = FileSystem.getLocal(conf);
fs.delete(output, true); // delete old output
VisitedItemFlattenDriver driver = new VisitedItemFlattenDriver();
driver.setConf(conf);
int exitCode = driver.run(new String[] {
input.toString(), output.toString(), "false" });
但是当我从eclipse执行Junit测试用例时。我得到例外如下: -
java.lang.NullPointerException
at java.lang.ProcessBuilder.start(ProcessBuilder.java:441)
at org.apache.hadoop.util.Shell.runCommand(Shell.java:404)
at org.apache.hadoop.util.Shell.run(Shell.java:379)
at org.apache.hadoop.util.Shell$ShellCommandExecutor.execute(Shell.java:589)
at org.apache.hadoop.util.Shell.execCommand(Shell.java:678)
at org.apache.hadoop.util.Shell.execCommand(Shell.java:661)
at org.apache.hadoop.fs.RawLocalFileSystem.setPermission(RawLocalFileSystem.java:639)
at org.apache.hadoop.fs.RawLocalFileSystem.mkdirs(RawLocalFileSystem.java:435)
at org.apache.hadoop.fs.FilterFileSystem.mkdirs(FilterFileSystem.java:277)
at org.apache.hadoop.mapreduce.JobSubmissionFiles.getStagingDir(JobSubmissionFiles.java:125)
at org.apache.hadoop.mapreduce.JobSubmitter.submitJobInternal(JobSubmitter.java:344)
at org.apache.hadoop.mapreduce.Job$10.run(Job.java:1268)
at org.apache.hadoop.mapreduce.Job$10.run(Job.java:1265)
at java.security.AccessController.doPrivileged(Native Method)
at javax.security.auth.Subject.doAs(Subject.java:396)
at org.apache.hadoop.security.UserGroupInformation.doAs(UserGroupInformation.java:1491)
at org.apache.hadoop.mapreduce.Job.submit(Job.java:1265)
at org.apache.hadoop.mapreduce.Job.waitForCompletion(Job.java:1286)
at biz.ds.www.preprocess.visiteditem.VisitedItemFlattenDriver.run(VisitedItemFlattenDriver.java:69)
我不确定导致此错误的原因是因为我只想对我的班级进行单元测试:
public class VisitedItemFlattenDriver extends Configured implements Tool {
...}
我非常感谢如果有人指导如何解决错误。
答案 0 :(得分:0)
我尝试了几个选项来解决问题,花了很多时间来解决这个问题。
首先,我搜索了一个选项,发现将winutils.exe和.dll文件添加到hadoop / bin。我尝试了这一步,并设置了HADOOP_HOME环境变量。
不知怎的,上面提到的错误得到了解决,然后我陷入了不同的错误,如下所示:
java.lang.UnsatisfiedLinkError: org.apache.hadoop.io.nativeio.NativeIO$Windows.access0(Ljava/lang/String;I)Z
很明显,错误是由于某些兼容性问题造成的。但后来我做了一些搜索,发现如果我们将JRE从32位升级到64位就可以解决。
之前我使用的是32位JDK 6,然后将其更新为64位JDK 6。它没有解决我的问题。我也尝试使用minidfscluster用于MR单元但是也给出了同样的错误。
但后来我使用了JDK 7 64位代码,问题解决了,并且运行成功。
**注意:我使用的是Hadoop 2.2.0版本