如何在Zeppelin中加载hiveContext?

时间:2017-08-02 07:18:16

标签: apache-spark apache-zeppelin

我是zeppelin笔记本的新手。但是我注意到,当我启动笔记本时,不会在zeppelin中自动创建一个与spark-shell hiveContext不同的东西。

当我尝试在zeppelin中手动加载hiveContext时,如:

var myPassword = this.valueNameToStore;

我收到此错误

import org.apache.spark.sql.hive._
import org.apache.spark.sql.hive.HiveContext

val hiveContext = new HiveContext(sc)

我认为错误意味着先前的metastore_db不允许覆盖新的。

我正在使用spark 1.6.1

任何帮助都将不胜感激。

3 个答案:

答案 0 :(得分:0)

检查你的metastore_db权限...... 然后你通过REPL模式进行测试.. 然后你必须移动齐柏林飞艇。

答案 1 :(得分:0)

请你试着从shell连接Hive。我只是想让你检查Hive是否安装正确,因为我有时会遇到类似的问题。还尝试从Scala shell连接Hive。如果它有效,那么它应该在Zeppelin工作。

答案 2 :(得分:0)

尝试按如下方式创建HIVE环境:

PYSPARK代码。

sc = SparkContext(conf = conf)

sc._jvm.org.apache.hadoop.hive.conf.HiveConf()

hiveContext = HiveContext(sc)

希望它有所帮助。

此致

Neeraj