使用Spark DataFrame中的多列更改行的值

时间:2019-02-05 05:47:04

标签: scala apache-spark apache-spark-sql apache-spark-dataset

我得到了这种格式的dataframe(df)。

df.show()
********************
X1 | x2  | X3 | ..... | Xn   | id_1 | id_2 | .... id_23
1  |  ok |good|         john | null | null |     |null
2  |rick |good|       | ryan | null | null |     |null
....

我有一个数据框,其中有很多列,该数据框名为df。我需要编辑此dataframe(df)中的列。我有2个映射,即m1(Integer-> Integer)和m2(Integer-> String)映射。

我需要查看每一行,并获取列X1的值,并查看m1中X1的映射值,该值将在[1,23]范围内,令其为5,并在其中找到X1的映射值。 m2,类似于X8。我需要将X8列的值添加到id_5。我有以下代码,但无法正常工作。

val dfEdited = df.map( (row) => {
  val mapValue = row.getAs("X1")
  row.getAs("id_"+m1.get(mapValue)) = row.getAs(m2.get(mapValue)
})

1 个答案:

答案 0 :(得分:2)

您在row.getAs("id_"+m1.get(mapValue)) = row.getAs(m2.get(mapValue)中所做的事情没有任何意义。

首先,您正在为操作getAs("id_"+m1.get(mapValue))的结果分配一个值,这将为您提供一个不变的值。其次,您没有正确使用方法getAs,因为您需要指定该方法返回的数据类型。

我不确定我是否正确理解了您想做什么,我想您缺少一些细节。无论如何,这就是我所得到的,并且效果很好。

当然,我对每行代码都进行了注释,以便您可以轻松理解它。

// First of all we need to create a case class to wrap the content of each row.
case class Schema(X1: Int, X2: String, X3: String, X4: String, id_1: Option[String], id_2: Option[String], id_3: Option[String])


val dfEdited = ds.map( row => {
  // We use the getInt method to get the value of a field which is expected to be Int
  val mapValue = row.getInt(row.fieldIndex("X1"))

  // fieldIndex gives you the position inside the row fo the field you are looking for. 
  // Regarding m1(mapValue), NullPointer might be thrown if mapValue is not in that Map. 
  // You need to implement mechanisms to deal with it (for example, an if...else clause, or using the method getOrElse)
  val indexToModify = row.fieldIndex("id_" + m1(mapValue)) 

  // We convert the row to a sequence, and pair each element with its index.
  // Then, with the map method we generate a new sequence.
  // We replace the element situated in the position indexToModify.
  // In addition, if there are null values, we have to convert it to an object of type Option.
  // It is necessary for the next step.
  val seq = row.toSeq.zipWithIndex.map(x => if (x._2 == indexToModify) Some(m2(mapValue)) else if(x._1 == null) None else x._1)


  // Finally, you have to create the Schema object by using pattern matching
  seq match {
    case Seq(x1: Int, x2: String, x3: String, x4: String, id_1: Option[String], id_2: Option[String], id_3: Option[String]) => Schema(x1, x2,x3,x4, id_1, id_2, id_3)
  }
})

一些评论:

  • ds对象是一个数据集。数据集必须具有结构。您无法修改map方法中的行并返回它们,因为Spark不会知道数据集的结构是否已更改。因此,我将返回一个case类对象,因为它为Dataset对象提供了一种结构。

  • 请记住,您可能在使用null值时遇到问题。如果您没有建立机制来处理例如X1的值不在m1中的情况,则此代码可能会向您抛出空指针。

希望它能起作用。