环境:Spark 1.6和Scala
您好,
我有数据框DF并尝试运行
FAST
我正在异常
val configTable= hivecontext.table("mydb.myTable")
configTable.rdd.map(row=>{
val abc =hivecontext.sql("select count(*) as num_rows from mydb2.mytable2")
}).collect()
是否不允许在17/03/28 22:47:04 ERROR executor.Executor: Exception in task 0.0 in stage 1.0 (TID 1)
java.lang.NullPointerException
中使用SparkSQL?有什么解决方法吗?
感谢