我在完全分布式模式下设置了Hadoop,其中包含一个主服务器和3个从服务器。我正在尝试执行一个名为Tasks.jar的jar文件,它将arg [0]作为输入目录,将arg [1]作为输出目录。
在我的Hadoop环境中,我将输入文件放在/ input目录中,并且没有/ output目录。
我使用hadoop fs -ls /
命令
现在,当我尝试使用以下命令执行我的jar文件时:
hadoop jar Tasks.jar ProgrammingAssigment/Tasks /input /output'
我得到以下异常:
ubuntu@ip-172-31-5-213:~$ hadoop jar Tasks.jar ProgrammingAssignment/Tasks /input /output
16/10/14 02:26:23 INFO client.RMProxy: Connecting to ResourceManager at ec2-52-55-2-64.compute-1.amazonaws.com/172.31.5.213:8032
Exception in thread "main" org.apache.hadoop.mapred.FileAlreadyExistsException: Output directory hdfs://ec2-52-55-2-64.compute-1.amazonaws.com:9000/input already exists
at org.apache.hadoop.mapreduce.lib.output.FileOutputFormat.checkOutputSpecs(FileOutputFormat.java:146)
at org.apache.hadoop.mapreduce.JobSubmitter.checkSpecs(JobSubmitter.java:266)
at org.apache.hadoop.mapreduce.JobSubmitter.submitJobInternal(JobSubmitter.java:139)
at org.apache.hadoop.mapreduce.Job$10.run(Job.java:1290)
at org.apache.hadoop.mapreduce.Job$10.run(Job.java:1287)
at java.security.AccessController.doPrivileged(Native Method)
at javax.security.auth.Subject.doAs(Subject.java:415)
at org.apache.hadoop.security.UserGroupInformation.doAs(UserGroupInformation.java:1657)
at org.apache.hadoop.mapreduce.Job.submit(Job.java:1287)
at org.apache.hadoop.mapreduce.Job.waitForCompletion(Job.java:1308)
at ProgrammingAssignment.Tasks.main(Tasks.java:96)
at sun.reflect.NativeMethodAccessorImpl.invoke0(Native Method)
at sun.reflect.NativeMethodAccessorImpl.invoke(NativeMethodAccessorImpl.java:57)
at sun.reflect.DelegatingMethodAccessorImpl.invoke(DelegatingMethodAccessorImpl.java:43)
at java.lang.reflect.Method.invoke(Method.java:606)
at org.apache.hadoop.util.RunJar.run(RunJar.java:221)
at org.apache.hadoop.util.RunJar.main(RunJar.java:136)
答案 0 :(得分:0)
在您的代码输出目录中显示为hdfs://ec2-52-55-2-64.compute-1.amazonaws.com:9000/input
的堆栈跟踪显示为/input
,因此发生了上述异常。您可能需要更改输出目录或更改hdfs中的输入目录名称。
答案 1 :(得分:-1)
确保/ input作为输入目录而不是输出目录传递。通过例外
org.apache.hadoop.mapreduce.lib.output.FileOutputFormat.checkOutputSpecs
/输入被视为您的输出目标。