在spark 1.3.0的API中,SchemaRDD的声明在哪里

时间:2015-04-08 06:45:34

标签: scala apache-spark

  1. 这些代码在IDEA中报告错误,为什么?

    val sqlContext = new org.apache.spark.sql.SQLContext(sc)
    import sqlContext.createSchemaRDD
    val people = sc.textFile("c3/test.txt").map(_.split(",")).map(p => Person(p(0), p(1).trim.toInt))
    people.registerTempTable("people")
    
  2. 除了sqlContext之外,还有另一种方法可以将SchemaRDD转换为import sqlContext.createSchemaRDD吗?

  3. 我在spark api文档中找不到SchemaRDD类,为什么?

1 个答案:

答案 0 :(得分:3)

在Apache Spark 1.3.0中,

SchemaRDD已重命名为DataFrame。请参阅migration guide