为spark rdd元素添加前缀

时间:2018-06-26 21:54:02

标签: scala apache-spark hadoop pyspark apache-spark-sql

我在rdd中有两个字符串元素,分别是:     “ 53 45 61”,“ 0 1 2”。 我想将其压缩并映射为键值对,并为每个键添加前缀“ C”

预期输出:

C53 -> 0, C45-> 1, C61-> 2 

当前这是我正在使用的代码

val prefix = "C"

newRDD = RDD.map(x=>(prefix + (x._1.split(" ")) zip x._2.split(" "))

接收结果如下:

53 -> 0, C45-> 1, 61-> 2 .

我在这里想念什么?

1 个答案:

答案 0 :(得分:0)

您当前正在将前缀添加到 "patient": { "identifier": [{ "type": { "coding": { "system": "NA", "code": "Patient" }, "text": "Patient" }, "system": "Patient", "value": "3018572032" }] } (不知道您可以这样做)。您是要执行Array(53, 45, 61)而是将其添加到每个元素吗?