使用HiveContext抛出错误

时间:2017-02-01 21:32:00

标签: apache-spark intellij-14 hivecontext

我正在本地运行spark作业以进行调试。我使用sbt导入了spark-core jar文件。我在我的代码中使用hiveContext。它抛出以下错误。     HDFS上的root scratch dir:/ tmp / hive应该是可写的。目前的权限是:rw-rw-rw -

再一次,我没有在我的本地机器上安装spark或hadoop。我正在使用sbt导入所有jar并在Intellij中运行它们。有什么办法可以解决这个问题。

谢谢,

0 个答案:

没有答案