让我们以两个新创建的数据帧empDF和deptDF为例。 创建视图
empDF.createOrReplaceTempView("table1")
deptDF.createOrReplaceTempView("table2")
spark.sql("select * from table1 as t1
join table2 as t2 on (...) where t1.col1 not in
(select t3.col2 from table1 as t3)"
)
令人惊讶的是,发生运行时异常,抱怨“ table1”视图或表不存在。当在同一数据源上执行两个不同的查询时,会发生这种情况。 请问我有什么主意。