标签: apache-spark apache-spark-sql
我在hive表上使用spark-sql面临这个异常。当我的查询同时包含WITH和INSERT子句时,这种情况会发生,即,如果我删除WITH子句或者替换INSERT,它会起作用:
sql("WITH... SELECT...").write.parquet("/test/")
我在CDH 5.7上使用spark 1.6.0,在HD Insight上使用spark 1.6.1。
有什么想法吗?
同样的例外与here有关,但出于其他原因。 存在与此异常here相关的故障单。
答案 0 :(得分:1)