Windows上的Hive:HDFS上的root scratch dir:/ tmp / hive应该是可写的

时间:2018-01-22 11:02:42

标签: apache-spark hive orc

我试图将Spark应用程序转换为使用ORC输出存储而不是Parquet格式。 修改我的代码后,在Windows上运行应用程序时出现以下错误:

> java.lang.RuntimeException: The root scratch dir: /tmp/hive on HDFS
> should be writable. Current permissions are: rw-rw-rw-    at
> org.apache.hadoop.hive.ql.session.SessionState.createRootHDFSDir(SessionState.java:612)
>   at
> org.apache.hadoop.hive.ql.session.SessionState.createSessionDirs(SessionState.java:554)
>   at
> org.apache.hadoop.hive.ql.session.SessionState.start(SessionState.java:508)
>   ... 73 more

首先,我发现它无法使用rw-rw-rw-权限进行编写,但无论如何,我尝试使用Hadoop的winutils更改此目录权限,如同here

winutils.exe chmod -R 777 \tmp

但仍然是同样的错误...

此外,我还试图删除该目录,并且应用程序自动重建了733权限,但仍然说它不能写...

编辑:这不是this问题的重复,因为我的问题出现在Windows平台上。

0 个答案:

没有答案