我正在使用 pyspark 数据框。
我有一个日期类型值列表:
date_list = ['2018-01-19', '2018-01-20', '2018-01-17']
我还有一个只有一列(平均值)的数据框(mean_df)。
+----+
|mean|
+----+
|67 |
|78 |
|98 |
+----+
现在我想将 date_list 转换为一列并加入 mean_df:
预期输出:
+------------+----+
|dates |mean|
+------------+----+
|2018-01-19 | 67|
|2018-01-20 | 78|
|2018-01-17 | 98|
+------------+----+
我尝试将列表转换为数据框 (date_df) :
date_df = spark.createDataFrame([(l,) for l in date_list], ['dates'])
然后为 date_df 和 mean_df 使用 monotonically_increasing_id() 和新的列名“idx”,并使用 join :
date_df = mean_df.join(date_df, mean_df.idx == date_df.idx).drop("idx")
我收到超时错误,因此我将默认的 broadcastTimeout 300s 更改为 6000s
spark.conf.set("spark.sql.broadcastTimeout", 6000)
但它根本不起作用。此外,我现在正在处理一个非常小的数据样本。实际数据足够大。
代码片段:
date_list = ['2018-01-19', '2018-01-20', '2018-01-17']
mean_list = []
for d in date_list:
h2_df1, h2_df2 = hypo_2(h2_df, d, 2)
mean1 = h2_df1.select(_mean(col('count_before')).alias('mean_before'))
mean_list.append(mean1)
mean_df = reduce(DataFrame.unionAll, mean_list)
答案 0 :(得分:1)
您可以使用 withColumn
和 lit
将日期添加到数据框中:
import pyspark.sql.functions as F
date_list = ['2018-01-19', '2018-01-20', '2018-01-17']
mean_list = []
for d in date_list:
h2_df1, h2_df2 = hypo_2(h2_df, d, 2)
mean1 = h2_df1.select(F.mean(F.col('count_before')).alias('mean_before')).withColumn('date', F.lit(d))
mean_list.append(mean1)
mean_df = reduce(DataFrame.unionAll, mean_list)