使用默认的SqlContext

时间:2016-07-26 18:04:50

标签: scala apache-spark

我有以下代码,它应该告诉Spark使用默认数据库模式:

sqlContext.sql(s"use default")

当我运行此代码时,我在上面的行中收到以下错误:

[1.1] failure: ``with'' expected but identifier use found

use default
^
java.lang.RuntimeException: [1.1] failure: ``with'' expected but identifier use found

use default
^

这是什么意思? 为什么期待with

1 个答案:

答案 0 :(得分:0)

数据库命令仅对使用Hive支持(Spark 2.0.0+)初始化的o.a.s.sql.hive.HiveContex(Spark< 2.0.0)或o.a.s.sql.SparkSession有意义,但它看起来像是使用标准{{1}这不支持数据库。

换句话说:

  • 使用使用Hive支持构建的Spark二进制文件。
  • 使用o.a.s.sql.SQLContext初始化SQLContext