合并列值

时间:2019-07-01 16:49:15

标签: apache-spark pyspark

我想在代码中同时使用selectgroupBy,但出现错误(下面有更多内容)。

我在初始DataFrame上做了两列的groupBy并在另外两列上进行了聚合。我想从我的初始数据框中选择一个未用于分组依据的列。

要解释更多,这是我的代码:

我在第一个DataFrame groupBy("frame")上做了一个frame_id,并将结果存储在新的Dataframe frame_id_agg中。当我选择所有列以收集最终结果时,我得到一个错误:

AnalysisException: u"cannot resolve '' given input columns

因为frame_id_agg不在groupby / agg列的列表中。

如何恢复最终groupByagg结果中的列?

0 个答案:

没有答案