标签: apache-spark intellij-14 hivecontext
我正在本地运行spark作业以进行调试。我使用sbt导入了spark-core jar文件。我在我的代码中使用hiveContext。它抛出以下错误。 HDFS上的root scratch dir:/ tmp / hive应该是可写的。目前的权限是:rw-rw-rw -
再一次,我没有在我的本地机器上安装spark或hadoop。我正在使用sbt导入所有jar并在Intellij中运行它们。有什么办法可以解决这个问题。
谢谢,