在我的源数据中,没有任何可以对数据进行分组的类别列。
因此,我想基于另一个列say(“ QNAME”)不同值在Spark数据框中添加新的自定义类别列。我想在分组依据枢纽中使用。
到现在为止,我还不知道...该怎么得到。
假设我在源数据框下方
Qname b c d
SPT 1 10 555
MTK 2 20 556
NKP 3 30 557
LKM 4 40 558
SPT 5 50 559
MTK 7 70 561
QRS 6 60 560
NKP 7 70 561
SPT 5 50 559
LKM 7 70 561
QRS 7 70 561
MTK 7 70 561
NKP 7 70 561
因此,我想基于column(“ QNAME”)值,对不同的值组合进行分类。 例如,不同的值是(SPT,MTK,NKP,LKM,QRS)...因此,对于该值的第一次出现将被定为“ aaa”,然后第二次出现将被标记为“ bbb”,依此类推。
所以,下面是预期的输出。
Category Qname b c d
"aaa" SPT 1 10 555
"aaa" MTK 2 20 556
"aaa" NKP 3 30 557
"aaa" LKM 4 40 558
"bbb" SPT 5 50 559
"bbb" MTK 7 70 561
"aaa" QRS 6 60 560
"bbb" NKP 7 70 561
"ccc" SPT 5 50 559
"bbb" LKM 7 70 561
"bbb" QRS 7 70 561
"ccc" MTK 7 70 561
"ccc" NKP 7 70 561
我正在使用Scala和Spark进行此操作。 任何帮助或建议,以感谢破解。 预先感谢!
答案 0 :(得分:0)
可以使用窗口函数“ row_number()”完成任务。如果考虑到 乔纳森·迈尔斯(Jonathan Myers)评论,最好只用数字代替字符:
val df = Seq(
("SPT", 1, 10, 555),
("MTK", 2, 20, 556),
("NKP", 3, 30, 557),
("LKM", 4, 40, 558),
("SPT", 5, 50, 559),
("MTK", 7, 70, 561),
("QRS", 6, 60, 560),
("NKP", 7, 70, 561),
("SPT", 5, 50, 559),
("LKM", 7, 70, 561),
("QRS", 7, 70, 561),
("MTK", 7, 70, 561),
("NKP", 7, 70, 561)
).toDF(
"Qname", "b", "c", "d"
)
// action
val categoryWindow = Window.partitionBy($"Qname").orderBy("c")
val result = df.withColumn("Category", row_number().over(categoryWindow))
结果:
+--------+-----+---+---+---+
|Category|Qname|b |c |d |
+--------+-----+---+---+---+
|1 |SPT |1 |10 |555|
|1 |NKP |3 |30 |557|
|1 |QRS |6 |60 |560|
|1 |LKM |4 |40 |558|
|1 |MTK |2 |20 |556|
|2 |NKP |7 |70 |561|
|2 |LKM |7 |70 |561|
|2 |QRS |7 |70 |561|
|2 |SPT |5 |50 |559|
|2 |MTK |7 |70 |561|
|3 |NKP |7 |70 |561|
|3 |MTK |7 |70 |561|
|3 |SPT |5 |50 |559|
+--------+-----+---+---+---+