我在PySpark中定义了一个窗口,如下所示:
import pyspark.sql.functions as f
w = Window.partitionBy(['col_a', 'col_b']).orderBy(f.desc('metric'))
如何按列指标的绝对值订购订单?
不幸的是
w = Window.partitionBy(['col_a', 'col_b']).orderBy(f.desc(f.abs('metric')))
也
w = Window.partitionBy(['col_a', 'col_b']).orderBy(f.desc(f.abs(f.col('metric'))))
有效,并导致错误。