标签: scala apache-spark
我想使用spark和scala计算数据帧的频率分布(返回每列中最常见的元素及其出现的次数)。我已经尝试过使用DataFrameStatFunctions库但是在我仅为数字类型列过滤数据帧后,我无法应用库中的任何函数。这是创建UDF的最佳方法吗?
答案 0 :(得分:9)
val newDF = df.groupBy("columnName").count() newDF.show()
它将显示唯一条目的频率计数。