标签: python apache-spark pyspark
我们可以在pyspark中访问RDD中元组的单个元素吗?在PIG中我们使用$ 0,$ 1等...所以我们在pySpark中有类似的东西。 如果元组有10个元素,如何获得第5和第7个元素?我应该使用哪个功能。如何只检索所需的元素。
答案 0 :(得分:1)
这是你想要的吗?
rdd57 = rdd.map(lambda x: (x[5], x[7]))