Scala:将参数数组扩展为List会产生错误

时间:2016-02-10 12:57:20

标签: scala apache-spark spark-dataframe

我正在尝试将参数列表传递给函数。

scala> val a = Array("col1", "col2")
a: Array[String] = Array(col1, col2)

我试图使用:_*符号,但它不起作用。我不能为我的生活找出原因!

val edges = all_edges.select(a:_*)
<console>:27: error: overloaded method value select with alternatives:
(col: String,cols: String*)org.apache.spark.sql.DataFrame <and>
(cols: org.apache.spark.sql.Column*)org.apache.spark.sql.DataFrame
cannot be applied to (String)

然而,这确实有效: val edges = all_edges.select("col1", "col2")

不确定它是否相关,但all_edges是一个火花数据框,我试图通过在列表中指定列来保留列。

 scala> all_edges
 res4: org.apache.spark.sql.DataFrame

有什么想法吗?我一直试图从例如中找出语法。 Passing elements of a List as parameters to a function with variable arguments但似乎没有达到目标

修改:刚刚找到How to "negative select" columns in spark's dataframe - 但我很困惑为什么语法twocol.select(selectedCols.head, selectedCols.tail: _*)是必要的?

1 个答案:

答案 0 :(得分:9)

如果要传递字符串,函数的签名表示您必须至少传递一个:

(col: String,cols: String*)org.apache.spark.sql.DataFrame

所以你必须挑出你的列表的第一个参数:Spark不能仅从Traversable的类型确定它不是空的。

val edges = all_edges.select(a.head, a.tail: _*)

现在,这是它的脏版本。如果您想严格执行此操作,则应检查列表是否为空:

val edges = a.headOption.map( (fst) => all_edges.select(fst, a.drop(1))