加入pyspark数据框无法正常运行,Spark版本2.3

时间:2019-03-17 21:26:08

标签: python join

我想加入两个spark数据框d7encoded1。 因此,我使用以下联接查询:

  

joinResult = inner_join = d7.join(encoded1,d7.loan_status == encoding1.loan_status)   joinResult.show()

但是我得到的结果是给所有行相同的值。我的所有行都可能具有相同的值吗?

这里是joinResult

0 个答案:

没有答案