标签: hadoop apache-spark hive metastore hivecontext
我在谷歌计算引擎上部署了带有bdutil的hadoop集群 我的配置 - 操作系统:Ubuntu 14 - 星火:1.5 - 蜂巢:0.12 - 1个主节点和2个工作人员
Hive Metastore配置:
我将 hive-site.xml 从配置单元复制到 $ SPARK_HOME / conf / hive-site.xml (仅在主节点上)
当我尝试在Pyspark shell中使用HiveContext时,我收到此消息错误:
...
有人知道出了什么问题吗?
提前谢谢