是否有任何替代Hive“存储由”条款,因为Spark 2.0不支持它?

时间:2016-08-14 22:42:57

标签: hadoop apache-spark spark-streaming spark-dataframe

Spark 1.6及更低版本支持HiveContext,它支持带有“stored by”子句的Hive存储处理程序。但是,Spark 2.0不支持“存储”。那么在2.0中实现Hive存储处理程序支持还有其他选择吗?

“重新发布databricks中提出的问题”

0 个答案:

没有答案