如何使用spark将scla中的Array [String]转换为String *

时间:2017-07-10 02:47:27

标签: apache-spark apache-spark-sql

我有RDDArray[String],我想将RDD转换为DataFrameArray[String]'的值是colnames,但是{{1函数需要DataFrame.toDf()类型

这是toDF()的源代码:

String*

这是我的代码:

    def toDF(colNames: String*): DataFrame = ds.toDF(colNames : _*)

这是我期望的结果:

 val sqlContext = new SQLContext(sc)
    import sqlContext.implicits._
    val arr=Array(
      (1,2),
      (3,2),
      (4,2),
      (5,2),
      (7,2)

    )
    val colNames=Array("first","second")
    val df = sc.parallelize(arr,2).toDF("??","??")

1 个答案:

答案 0 :(得分:2)

Scala 中使用_* varargs ,以便您可以执行以下操作:sc.parallelize(arr,2).toDF(colNames:_*)