内部加入后如何更新DataFrame然后离开外部加入

时间:2017-01-27 15:26:14

标签: scala apache-spark

如何在内部连接后更新DataFrame,然后离开外部连接 需要转换的mysql查询

   UPDATE SUD a
   LEFT OUTER JOIN (RS_DF b 
                    INNER JOIN prlesp 
                    ON b.cid = p.cid 
                    and p.PS = b.PS ) 
ON a.cid = p.cid  
AND a.id = b.aid 

val updated_Df = RS_DF.join(prles_DF, prles(cid) <=>  RS_DF(aid) &&  prles(cid) <=>  RS_DF(aid),"INNER").select(*).join(.....)

我无法理解如何从连接中获取所有值,并再次在SUD_DF上获得左外连接并更新值

1 个答案:

答案 0 :(得分:0)

Spark DataFrames是不可变结构。您无法更新DataFrame。相反,您必须将数据帧转换为新的DataFrame。然后,您可以将新数据帧写入磁盘或其他一些数据存储区。