标签: apache-spark rdd
我有以下代码:
val myRDD = new JdbcRDD( sc, () => r => (r.getString("city"),r.getString("town"),r.getInt("count")))
因为我需要减少城市和城镇以获得计数总和,所以我需要创建一个以城市和城镇为关键字的密钥对RDD,计为值。我试过了val pairRdd = myRDD.map(tp=>(tp._1,tp._2),tp._8)),但它没有用。谢谢!
val pairRdd = myRDD.map(tp=>(tp._1,tp._2),tp._8))