无法启动spark-shell,因为它会产生hadoop集群steup的错误,但是,没有hadoop集群

时间:2017-04-07 12:09:43

标签: scala shell hadoop apache-spark apache-spark-sql

当我删除hadoop集群设置文件夹时,我的spark-shell工作得非常好,但是,如果我尝试使用hadoop集群设置文件夹,那么sparke-shell会产生各种错误,如"实例化时出错&#39 ; org.apache.spark.sql.hive.HiveSessionState'在火花"即使我没有在任何地方配置蜂巢。请注意,即使我尝试关闭haddop和spark的所有集群,但即使是spark-shell产生以下错误:

Error during excecution of ./bin/spark-shell

second part of the same error

1 个答案:

答案 0 :(得分:1)

运行:mkdir / user / $ whoami / spark-warehouse

然后运行:spark-shell --conf spark.sql.warehouse.dir = file:/// user / $ whoami / spark-warehouse