Spark Scala列无法在join中解析

时间:2018-03-29 15:16:40

标签: scala apache-spark

我试图加入两张桌子。两者都包括专栏' joindate'。我通过printSchema进行了双重检查并选择了该列,这完全有效。

第二个我尝试加入表格时遇到以下异常:

  

org.apache.spark.sql.AnalysisException:USING列joindate不能   在联接的左侧解决。左侧栏目:[...]

所有列都包含在[...]中,除了' joindate'。怎么会发生这种情况?

如果我在左栏上进行了自我加入,那就是“加入”#39;它工作得很好。右栏上的自我加入' joindate'也有效:

left.select("joindate").filter($"joindate" === "2017-12-27").distinct.join(left.select("joindate").filter($"joindate" === "2017-12-27").distinct ,Seq("joindate") ,"inner").show

我尝试使用字符串和日期作为' joindate'。

的类型

不幸的是,我无法重现一个例子,也无法分享我的代码。

0 个答案:

没有答案