如何在不同数据帧的条件下使用条件向pyspark数据帧添加列

时间:2017-08-22 16:17:44

标签: python apache-spark pyspark spark-dataframe

我实际上是在尝试将以下sql转换为pyspark。

   UPDATE table_a a, table_b b
   SET a.flag=1
   WHERE 
   (
    b.NOD=1
    OR
    (b.flag_3=1 AND b.flag_1=0 AND b.testingSold=0)
   ) 
   AND b.uuid=a.uuid

我尝试了以下代码,但它无效:

   table_a = table_a.withColumn("flag", F.when((table_b.NOD ==1) | (table_b.flag_3 == 1) & (table_b.flag_1==0) & table_a.uuid == table_b.uuid), F.lit(1))

这样做的正确方法是什么?

1 个答案:

答案 0 :(得分:1)

您可以执行以下操作

password