下面是我的Spark函数,该函数处理DataFrame列中的空值,而与数据类型无关。
def nullsToZero(df:DataFrame,nullsToZeroColsList:Array[String]): DataFrame ={
var y:DataFrame = df
for(colDF <- y.columns){
if(nullsToZeroColsList.contains(colDF)){
y = y.withColumn(colDF,expr("case when "+colDF+" IS NULL THEN 0 ELSE "+colDF+" end"))
}
}
return y
}
import spark.implicits._
val personDF = Seq(
("miguel", Some(12),100,110,120), (null, Some(22),200,210,220), ("blu", None,300,310,320)
).toDF("name", "age","number1","number2","number3")
println("Print Schema")
personDF.printSchema()
println("Show Original DF")
personDF.show(false)
val myColsList:Array[String] = Array("name","age","age")
println("NULLS TO ZERO")
println("Show NullsToZeroDF")
val fixedDF = nullsToZero(personDF,myColsList)
在上面的代码中,我有一个Integer类型和一个String类型的数据类型,它们都由我的函数处理。 但是我怀疑下面的代码,在我的函数中可能会影响性能,但不确定。
y = y.withColumn(colDF,expr("case when "+colDF+" IS NULL THEN 0 ELSE "+colDF+" end"))
是否可以使用其他更优化的方式编写此函数,而执行.withColumn()并一次又一次地分配DF的意义何在? 谢谢你。
答案 0 :(得分:0)
我建议为na.fill(valueMap)
组装一个valueMap
,以根据数据类型用特定值填充null
列,如下所示:
import org.apache.spark.sql.functions._
import spark.implicits._
val df = Seq(
(Some(1), Some("a"), Some("x"), None),
(None, Some("b"), Some("y"), Some(20.0)),
(Some(3), None, Some("z"), Some(30.0))
).toDF("c1", "c2", "c3", "c4")
val nullColList = List("c1", "c2", "c4")
val valueMap = df.dtypes.filter(x => nullColList.contains(x._1)).
collect{ case (c, t) => t match {
case "StringType" => (c, "n/a")
case "IntegerType" => (c, 0)
case "DoubleType" => (c, Double.MinValue)
} }.toMap
// valueMap: scala.collection.immutable.Map[String,Any] =
// Map(c1 -> 0, c2 -> n/a, c4 -> -1.7976931348623157E308)
df.na.fill(valueMap).show
// +---+---+---+--------------------+
// | c1| c2| c3| c4|
// +---+---+---+--------------------+
// | 1| a| x|-1.79769313486231...|
// | 0| b| y| 20.0|
// | 3|n/a| z| 30.0|
// +---+---+---+--------------------+