标签: scala apache-spark word-count bigdata
我是Spark-scala的新手,尝试解决简单的字数(将多个属性作为键)。我可以获得一些投入吗? 我有一个Rdd(String,String,Long)之类的 (A,B,1) (A,C,1) (A,C,1) (B,B,1) (B,B,1)
期望的结果是rdd之类的 (A,B,1) (A,C,2) (B,B,2)
答案 0 :(得分:5)
尝试:
rdd.map { case (x, y, c) => ((x, y), c) }.reduceByKey(_ + _)