我是zeppelin笔记本的新手。但是我注意到,当我启动笔记本时,不会在zeppelin中自动创建一个与spark-shell hiveContext不同的东西。
当我尝试在zeppelin中手动加载hiveContext时,如:
var myPassword = this.valueNameToStore;
我收到此错误
import org.apache.spark.sql.hive._
import org.apache.spark.sql.hive.HiveContext
val hiveContext = new HiveContext(sc)
我认为错误意味着先前的metastore_db不允许覆盖新的。
我正在使用spark 1.6.1
任何帮助都将不胜感激。
答案 0 :(得分:0)
检查你的metastore_db权限...... 然后你通过REPL模式进行测试.. 然后你必须移动齐柏林飞艇。
答案 1 :(得分:0)
请你试着从shell连接Hive。我只是想让你检查Hive是否安装正确,因为我有时会遇到类似的问题。还尝试从Scala shell连接Hive。如果它有效,那么它应该在Zeppelin工作。
答案 2 :(得分:0)
尝试按如下方式创建HIVE环境:
PYSPARK代码。
sc = SparkContext(conf = conf)
sc._jvm.org.apache.hadoop.hive.conf.HiveConf()
hiveContext = HiveContext(sc)
希望它有所帮助。
此致
Neeraj