标签: scala apache-spark
我是Spark编程的新手。我遇到了一个场景,将RDD的每个元素映射到另一种格式。所以我试图获得元组的第二个元素(x._2)。但是它给出了一个错误值_2不是Array [String]
我在这里想念一下...... 请帮助...
答案 0 :(得分:2)
问题在于它不像你期望的那样元组。它是Array[Array[String]]。您可以使用array(1)
Array[Array[String]]
array(1)
month1.map(x => x(1))