Spark将数据集转换为RDD

时间:2016-08-05 19:26:40

标签: java scala apache-spark

我有一个数据集[String],需要转换为RDD [String]。怎么样?

注意:我最近从spark 1.6迁移到spark 2.0。我的一些客户期待RDD,但现在Spark给了我数据集。

2 个答案:

答案 0 :(得分:18)

如scala API documentation中所述,您可以在数据集上调用.rdd

val myRdd : RDD[String] = ds.rdd

答案 1 :(得分:0)

数据集是强类型数据框,因此数据集和数据框都可以使用.rdd转换为RDD。