我有一个来自Spark SQL的输出作为行和列值。我想将其转换为Key Value对,以便可以将其作为Sequence文件写入HDFS。
argmappeddata.registerTempTable("loanstbl")
SparkSQL是
select purpose, count(*), sum(total_pymnt) as tot_pymnt
from loanstbl group by purpose
输出来自以下
Map(total_pymnt -> 7709668.451690674, purpose -> moving, cnt -> 2420)
Map(total_pymnt -> 8807398.730529785, purpose -> house, cnt -> 1438)
Map(total_pymnt -> 1.1700618113235474E7, purpose -> car, cnt -> 3466)
我是Scala编程新手,因此请原谅这是非常基本的。
由于
巴拉