相同列名上的pyspark连接失败(不同的列ID)

时间:2020-05-25 12:51:34

标签: pyspark

我正试图在相同的列名(joint_key)上连接两个pyspark数据帧。

此操作有时会失败,因为它显示'joint_key#1111' is not in columns ['joint_key#2222',...]

有时候,如果我将列重命名(使用相同的名称#facepalm ...),问题就解决了-但有时仅转换为localCheckpoint即可解决(显然这不是理想的解决方案)

您能帮我解决根本问题吗?

0 个答案:

没有答案