获取java.io.FileNotFoundException:文件不存在:尝试在Apache Kylin

时间:2016-12-08 05:08:01

标签: java hadoop hive hbase kylin

我使用以下技术的以下版本安装了Apache kylin: -

Apache Hadoop: - 2.7.3 
Apache Hive: - 2.1.0
Apache Hbase:- 1.2.4
Apache Kylin: - 1.6

我可以使用设置中提供的sample.sh文件在Apache Kylin中加载数据。但是,当我尝试在一个时间范围内构建多维数据集时,我在“构建多维数据集”的第3步中遇到以下错误:过程

File does not exist: 
hdfs://localhost:54310/app/hadoop/tmp/mapred/staging/hduser341814501/.staging/job_local341814501_0007/libjars/hive-exec-2.1.0.jar

其中hduser是启动了kylin并尝试构建多维数据集的用户。

我检查了目录结构,发现app/hadoop/tmp/mapred/staging/hduser341814501/.staging folder中没有目录或文件。

kylin是否尝试创建此目录结构并将hive-exec-2.1.0.jar放在该目录结构中,但由于某些权限问题而无法执行此操作?

还是因为其他一些错误而来?

尽管如此,jar kylin正在寻找hdfs://localhost:54310/usr/local//hivr/lib folder。麒麟也有可能在错误的位置寻找罐子吗?

任何人都可以帮我解决我做错的事吗?

2 个答案:

答案 0 :(得分:0)

Kylin将从类路径中寻找蜂巢罐,然后用" tmpjars"来指定它。提交MR工作时的财产。请通过以下方式检查您的环境:

1)运行$ KYLIN_HOME / bin / find-hive-dependency.sh,检查输出;

2)搜索" Hive Dependencies After Filtered"在$ KYLIN_HOME / logs / kylin.log中,它应该记录提交给Hadoop作业的依赖jar,如:

logs/kylin.log.2017-03-07:2017-03-07 11:58:18,772 INFO  [pool-6-thread-16] common.AbstractHadoopJob:203 : Hive Dependencies After Filtered: /usr/hdp/2.5.4.0-121/hive/lib/hive-metastore-1.2.1000.2.5.4.0-121.jar,/usr/hdp/2.5.4.0-121/hive/lib/hive-exec-1.2.1000.2.5.4.0-121.jar,/usr/hdp/2.5.4.0-121/hive-hcatalog/share/hcatalog/hive-hcatalog-core-1.2.1000.2.5.4.0-121.jar

同时检查Kylin运行的机器上是否存在罐子。

答案 1 :(得分:0)

我想您是在独立主机上运行Kylin,您还可以在其上部署hadoop&hive和hbase吗?如果是这样,您是否启动了纱线和历史记录服务器?在启动Kylin之前,尝试$HADOOP_HOME./sbin/start-yarn.sh并运行./sbin/mr-jobhistory-daemon.sh start historyserversections={this.state.dataToShow}