如何在pyspark groupby agg查询中放置变量

时间:2019-06-26 13:23:36

标签: pyspark apache-spark-sql pyspark-sql

嗨,我有一个查询,我想通过查询将变量数据放入组中

我试图这样,但是不起作用

dd2=(dd1.groupBy("hours").agg({'%s':'%s'})%(columnname1,input1))

在columnname1中包含'total',在input1中包含所需的聚合类型,例如mean或stddev。 我希望这个查询是动态的。

1 个答案:

答案 0 :(得分:0)

尝试一下

dd2=(dd1.groupBy("hours").agg({'{}'.format(columnname1):'{}'.format(input1)}))