当我删除hadoop集群设置文件夹时,我的spark-shell工作得非常好,但是,如果我尝试使用hadoop集群设置文件夹,那么sparke-shell会产生各种错误,如"实例化时出错&#39 ; org.apache.spark.sql.hive.HiveSessionState'在火花"即使我没有在任何地方配置蜂巢。请注意,即使我尝试关闭haddop和spark的所有集群,但即使是spark-shell产生以下错误:
答案 0 :(得分:1)
运行:mkdir / user / $ whoami / spark-warehouse
然后运行:spark-shell --conf spark.sql.warehouse.dir = file:/// user / $ whoami / spark-warehouse