标签: scala apache-spark
我正在尝试使用两列对数据帧进行groupBy,而第二列有一个类别值。 Plz帮助我在scala中使用正确的语法。 我试过这种方式,但错了。
df.groupBy("col1", "col2" == "Buy").count
感谢。