在Spark SQL中执行groupBy和agg时如何包含其他列?

时间:2019-01-31 19:56:19

标签: apache-spark apache-spark-sql

案例类Employee(id:整数,名称:字符串,城市:字符串,国家/地区:字符串,薪水:整数)

val empDF = sc.textFile(“文件:/home/hduser/Desktop/EmployeeData.txt”)。map(_。split(“,”))。map(e => Employee(e(0)。 toInt,e(1),e(2),e(3),e(4).toInt))。toDF

empDF.show()

val empDF1 = empDF.groupBy($“ city”)。agg(max($“ salary”))

empDF1.show()

我还希望输出显示每个城市薪水最高的员工的姓名。如何才能实现这一目标?

0 个答案:

没有答案