无法在Spark SQL中执行嵌套的SQL查询

时间:2018-09-12 10:11:09

标签: sql apache-spark apache-spark-sql

我正在尝试执行此查询,但是它不起作用:

SELECT COLUMN
FROM TABLE A           
WHERE  A.COLUM_1 = '9999-12-31' AND NOT EXISTS (SELECT 1 FROM TABLE2 ET WHERE ET.COl1 = A.COL2 LIMIT 1)

它导致显示以下错误:

  

“输入与预期不匹配”

Went through this post as it states its supported by Spark with 2.0+ version

1 个答案:

答案 0 :(得分:4)

我不确定SparkSQL是否支持std::chrono::high_resolution_clock::time_point timePoint = /* something */; std::chrono::system_clock::to_time_t(timePoint); 。但这不是必需的。这行得通吗?

TOP

这解决了查询中的其他一些语法问题(例如没有别名SELECT t.COLUMN FROM TABLE t WHERE t.COLUM_1 = '9999-12-31' AND NOT EXISTS (SELECT 1 FROM TABLE2 ET WHERE ET.COl1 = t.COL2); )。

也不需要子查询中的

ALIMIT应该在第一场比赛结束。