Spark SQL:它如何告诉hive在spark上运行查询?

时间:2017-03-20 17:28:55

标签: apache-spark apache-spark-sql

正如在此正确指出: Spark SQL query execution on Hive

通过HiveContext运行时,Spark SQL将使SQL查询使用spark引擎。

spark SQL设置 hive.execution.engine=spark 如何告诉hive这样做?

注意这会自动生效,我们不必在spark的conf目录中的 hive-site.xml 中指定它。

1 个答案:

答案 0 :(得分:0)

这里有2个独立的项目

  1. Hive on Spark - 将Spark集成为额外引擎的Hive项目。
  2. Spark SQL - 使用Hive代码的Spark模块。
  3. HiveContext属于第二个,而hive.execution.engine属于第一个属性。