标签: pyspark
我正试图在相同的列名(joint_key)上连接两个pyspark数据帧。
joint_key
此操作有时会失败,因为它显示'joint_key#1111' is not in columns ['joint_key#2222',...]
'joint_key#1111' is not in columns ['joint_key#2222',...]
有时候,如果我将列重命名(使用相同的名称#facepalm ...),问题就解决了-但有时仅转换为localCheckpoint即可解决(显然这不是理想的解决方案)
localCheckpoint
您能帮我解决根本问题吗?