我试图通过一个以数组作为参数的函数来转换数据帧。我的代码看起来像这样:
def getCategory(categories:Array[String], input:String): String = {
categories(input.toInt)
}
val myArray = Array("a", "b", "c")
val myCategories =udf(getCategory _ )
val df = sqlContext.parquetFile("myfile.parquet)
val df1 = df.withColumn("newCategory", myCategories(lit(myArray), col("myInput"))
然而,lit并不喜欢数组和这个脚本错误。我尝试定义一个新的部分应用函数,然后定义udf:
val newFunc = getCategory(myArray, _:String)
val myCategories = udf(newFunc)
val df1 = df.withColumn("newCategory", myCategories(col("myInput")))
当我得到一个nullPointer异常并且看不到myArray被识别时,这不起作用。关于如何将数组作为参数传递给具有数据帧的函数的任何想法?
另外,关于为什么做一些简单的事情(例如在数据帧上使用函数)的任何解释都是如此复杂(定义函数,将其重新定义为UDF等等)?
答案 0 :(得分:7)
很可能不是最漂亮的解决方案,但你可以尝试这样的事情:
def getCategory(categories: Array[String]) = {
udf((input:String) => categories(input.toInt))
}
df.withColumn("newCategory", getCategory(myArray)(col("myInput")))
您还可以尝试array
文字:
val getCategory = udf(
(input:String, categories: Array[String]) => categories(input.toInt))
df.withColumn(
"newCategory", getCategory($"myInput", array(myArray.map(lit(_)): _*)))
在旁注上使用Map
而不是Array
可能是个更好的主意:
def mapCategory(categories: Map[String, String], default: String) = {
udf((input:String) => categories.getOrElse(input, default))
}
val myMap = Map[String, String]("1" -> "a", "2" -> "b", "3" -> "c")
df.withColumn("newCategory", mapCategory(myMap, "foo")(col("myInput")))
自Spark 1.5.0起,您还可以使用array
函数:
import org.apache.spark.sql.functions.array
val colArray = array(myArray map(lit _): _*)
myCategories(lit(colArray), col("myInput"))