我试图将Spark应用程序转换为使用ORC输出存储而不是Parquet格式。 修改我的代码后,在Windows上运行应用程序时出现以下错误:
> java.lang.RuntimeException: The root scratch dir: /tmp/hive on HDFS
> should be writable. Current permissions are: rw-rw-rw- at
> org.apache.hadoop.hive.ql.session.SessionState.createRootHDFSDir(SessionState.java:612)
> at
> org.apache.hadoop.hive.ql.session.SessionState.createSessionDirs(SessionState.java:554)
> at
> org.apache.hadoop.hive.ql.session.SessionState.start(SessionState.java:508)
> ... 73 more
首先,我发现它无法使用rw-rw-rw-
权限进行编写,但无论如何,我尝试使用Hadoop的winutils更改此目录权限,如同here:
winutils.exe chmod -R 777 \tmp
但仍然是同样的错误...
此外,我还试图删除该目录,并且应用程序自动重建了733权限,但仍然说它不能写...
编辑:这不是this问题的重复,因为我的问题出现在Windows平台上。