Spark不允许对同一Spark SQL查询中的相同数据源进行单独的查询

时间:2019-03-24 05:55:29

标签: apache-spark apache-spark-sql pyspark-sql

让我们以两个新创建的数据帧empDF和deptDF为例。 创建视图

empDF.createOrReplaceTempView("table1")
deptDF.createOrReplaceTempView("table2")

spark.sql("select * from table1 as t1
             join table2 as t2 on (...) where t1.col1 not in 
              (select t3.col2 from table1 as t3)"
         )

令人惊讶的是,发生运行时异常,抱怨“ table1”视图或表不存在。当在同一数据源上执行两个不同的查询时,会发生这种情况。 请问我有什么主意。

0 个答案:

没有答案