Map()函数在spark中给出错误

时间:2017-05-21 05:49:48

标签: scala apache-spark

我是Spark编程的新手。我遇到了一个场景,将RDD的每个元素映射到另一种格式。所以我试图获得元组的第二个元素(x._2)。但是它给出了一个错误值_2不是Array [String]

的成员

Spark map() error

我在这里想念一下...... 请帮助...

1 个答案:

答案 0 :(得分:2)

问题在于它不像你期望的那样元组。它是Array[Array[String]]。您可以使用array(1)

获取数组的第二个元素
month1.map(x => x(1))