经过一些数据处理后,我最终得到了这个数据集:
Dataset<Row> counts //ID,COUNT,DAY_OF_WEEK
现在我想将其转换为此格式并另存为CSV:
ID,COUNT_DoW1, ID,COUNT_DoW2, ID,COUNT_DoW3,..ID,COUNT_DoW7
我可以想到一种方法:
JavaPairRDD<Long, Map<Integer, Integer>> r = counts.toJavaRDD().mapToPair(...)
JavaPairRDD<Long, Map<Integer, Integer>> merged = r.reduceByKey(...);
其中一对“ID”和大小为7的列表。 获得JavaPairRDD后,我可以将它存储在csv中。是否有一种更简单的方法来进行转换而不将其转换为RDD?
答案 0 :(得分:0)
您可以使用struct函数从cnt和day构造一对,然后使用collect_list执行groupby。 这样的东西(scala,但你可以轻松转换为java):
df.groupBy("ID").agg(collect_list(struct("COUNT","DAY")))
现在您可以编写一个提取相关列的UDF。因此,您只需在循环中执行withColumn即可复制ID(df.withColumn(&#34; id2&#34;,col(&#34; id&#34;)))
然后你创建一个UDF,它从位置i中提取count元素并在所有列上运行它,最后在同一天运行它。
如果您保留所需的订单并删除不相关的列,您将获得所要求的内容。
您也可以使用pivot命令(再次在scala中,但您应该能够轻松转换为java):
df.show()
>>+---+---+---+
>>| id|cnt|day|
>>+---+---+---+
>>|333| 31| 1|
>>|333| 32| 2|
>>|333|133| 3|
>>|333| 34| 4|
>>|333| 35| 5|
>>|333| 36| 6|
>>|333| 37| 7|
>>|222| 41| 4|
>>|111| 11| 1|
>>|111| 22| 2|
>>|111| 33| 3|
>>|111| 44| 4|
>>|111| 55| 5|
>>|111| 66| 6|
>>|111| 77| 7|
>>|222| 21| 1|
>>+---+---+---+
val df2 = df.withColumn("all",struct('id, 'cnt' 'day))
val res = .groupBy("id").pivot("day").agg(first('all).as("bla")).select("1.*","2.*","3.*", "4.*", "5.*", "6.*", "7.*")
res.show()
>>+---+---+---+----+----+----+----+----+----+---+---+---+----+----+----+----+----+----+----+----+----+
>>| id|cnt|day| id| cnt| day| id| cnt| day| id|cnt|day| id| cnt| day| id| cnt| day| id| cnt| day|
>>+---+---+---+----+----+----+----+----+----+---+---+---+----+----+----+----+----+----+----+----+----+
>>|333| 31| 1| 333| 32| 2| 333| 133| 3|333| 34| 4| 333| 35| 5| 333| 36| 6| 333| 37| 7|
>>|222| 21| 1|null|null|null|null|null|null|222| 41| 4|null|null|null|null|null|null|null|null|null|
>>|111| 11| 1| 111| 22| 2| 111| 33| 3|111| 44| 4| 111| 55| 5| 111| 66| 6| 111| 77| 7|
>>+---+---+---+----+----+----+----+----+----+---+---+---+----+----+----+----+----+----+----+----+----+