当我在HBase(0.98)表上使用Hive 1.0.0执行JOIN查询时,我得到以下异常。 简单的SELECT查询工作正常。 此外,提到的jar文件存在于所述位置。
错误[main]:exec.Task(SessionState.java:printError(833)) - 作业提交失败,异常' java.io.FileNotFoundException(文件不存在:hdfs:// localhost:9000 /家/用户/ Hadoop的2.6.0 /共享/的hadoop / MapReduce的/ Hadoop的MapReduce的客户端 - 芯 - 2.6.0.jar)' java.io.FileNotFoundException:文件不存在:hdfs:// localhost:9000 / home / user / hadoop-2.6.0 / share / hadoop / mapreduce / hadoop-mapreduce-client-core-2.6.0.jar 在org.apache.hadoop.hdfs.DistributedFileSystem $ 18.doCall(DistributedFileSystem.java:1122) 在org.apache.hadoop.hdfs.DistributedFileSystem $ 18.doCall(DistributedFileSystem.java:1114) 在org.apache.hadoop.fs.FileSystemLinkResolver.resolve(FileSystemLinkResolver.java:81) 在org.apache.hadoop.hdfs.DistributedFileSystem.getFileStatus(DistributedFileSystem.java:1114) at org.apache.hadoop.mapreduce.filecache.ClientDistributedCacheManager.getFileStatus(ClientDistributedCacheManager.java:288) at org.apache.hadoop.mapreduce.filecache.ClientDistributedCacheManager.getFileStatus(ClientDistributedCacheManager.java:224) at org.apache.hadoop.mapreduce.filecache.ClientDistributedCacheManager.determineTimestamps(ClientDistributedCacheManager.java:93) at org.apache.hadoop.mapreduce.filecache.ClientDistributedCacheManager.determineTimestampsAndCacheVisibilities(ClientDistributedCacheManager.java:57) at org.apache.hadoop.mapreduce.JobSubmitter.copyAndConfigureFiles(JobSubmitter.java:269) at org.apache.hadoop.mapreduce.JobSubmitter.copyAndConfigureFiles(JobSubmitter.java:390) 在org.apache.hadoop.mapreduce.JobSubmitter.submitJobInternal(JobSubmitter.java:483) 在org.apache.hadoop.mapreduce.Job $ 10.run(Job.java:1296) 在org.apache.hadoop.mapreduce.Job $ 10.run(Job.java:1293) at java.security.AccessController.doPrivileged(Native Method) 在javax.security.auth.Subject.doAs(Subject.java:415) 在org.apache.hadoop.security.UserGroupInformation.doAs(UserGroupInformation.java:1628) 在org.apache.hadoop.mapreduce.Job.submit(Job.java:1293) 在org.apache.hadoop.mapred.JobClient $ 1.run(JobClient.java:562) 在org.apache.hadoop.mapred.JobClient $ 1.run(JobClient.java:557) at java.security.AccessController.doPrivileged(Native Method) 在javax.security.auth.Subject.doAs(Subject.java:415) 在org.apache.hadoop.security.UserGroupInformation.doAs(UserGroupInformation.java:1628) 在org.apache.hadoop.mapred.JobClient.submitJobInternal(JobClient.java:557) 在org.apache.hadoop.mapred.JobClient.submitJob(JobClient.java:548) 在org.apache.hadoop.hive.ql.exec.mr.ExecDriver.execute(ExecDriver.java:429) 在org.apache.hadoop.hive.ql.exec.mr.MapRedTask.execute(MapRedTask.java:137) 在org.apache.hadoop.hive.ql.exec.Task.executeTask(Task.java:160) 在org.apache.hadoop.hive.ql.exec.TaskRunner.runSequential(TaskRunner.java:85) 在org.apache.hadoop.hive.ql.Driver.launchTask(Driver.java:1604) 在org.apache.hadoop.hive.ql.Driver.execute(Driver.java:1364) 在org.apache.hadoop.hive.ql.Driver.runInternal(Driver.java:1177) 在org.apache.hadoop.hive.ql.Driver.run(Driver.java:1004) 在org.apache.hadoop.hive.ql.Driver.run(Driver.java:994) 在org.apache.hadoop.hive.cli.CliDriver.processLocalCmd(CliDriver.java:201) 在org.apache.hadoop.hive.cli.CliDriver.processCmd(CliDriver.java:153) 在org.apache.hadoop.hive.cli.CliDriver.processLine(CliDriver.java:364) 在org.apache.hadoop.hive.cli.CliDriver.executeDriver(CliDriver.java:712) 在org.apache.hadoop.hive.cli.CliDriver.run(CliDriver.java:631) 在org.apache.hadoop.hive.cli.CliDriver.main(CliDriver.java:570) at sun.reflect.NativeMethodAccessorImpl.invoke0(Native Method) at sun.reflect.NativeMethodAccessorImpl.invoke(NativeMethodAccessorImpl.java:57) at sun.reflect.DelegatingMethodAccessorImpl.invoke(DelegatingMethodAccessorImpl.java:43) at java.lang.reflect.Method.invoke(Method.java:606) 在org.apache.hadoop.util.RunJar.run(RunJar.java:221) 在org.apache.hadoop.util.RunJar.main(RunJar.java:136)
2015-04-24 12:24:37,114 ERROR [main]:ql.Driver(SessionState.java:printError(833)) - 失败:执行错误,从org.apache.hadoop.hive.ql返回代码1 .exec.mr.MapRedTask
答案 0 :(得分:0)
正在HDFS中搜索hadoop-mapreduce-client-core-2.6.0.jar。
hdfs:// localhost:9000 /是hadoop hdfs地址。 你可以设置你的家庭路径或将你的jar上传到hdfs。
hdfs dfs -put [ Local Jar Path ] hdfs:// localhost:9000 / home / user / hadoop-2.6.0 / share / hadoop / mapreduce /