在火花壳中的多行拆分行

时间:2016-10-20 06:15:33

标签: scala apache-spark dataframe apache-spark-sql

我在Spark-shell中的Spark数据框中导入了数据。数据填写如下:

Col1 | Col2 | Col3 | Col4
A1   | 11   | B2   | a|b;1;0xFFFFFF
A1   | 12   | B1   | 2
A2   | 12   | B2   | 0xFFF45B

在Col4中,值是不同类型的,我想将它们分开(假设" a | b"是字母表的类型," 1或2"是一种类型数字和" 0xFFFFFF或0xFFF45B"是一种十六进制数。):

所以,输出应该是:

Col1 | Col2 | Col3 | alphabets | digits | hexadecimal
A1   | 11   | B2   | a         | 1      | 0xFFFFFF
A1   | 11   | B2   | b         | 1      | 0xFFFFFF
A1   | 12   | B1   |           | 2      | 
A2   | 12   | B2   |           |        | 0xFFF45B

希望我已经向您明确询问我并且使用spark-shell。提前谢谢。

2 个答案:

答案 0 :(得分:2)

获取此answer后有关如何在regexp_replace中进行反向引用的修改。

您可以regexp_replace使用反向引用,然后使用split两次explode。它比我原来的解决方案更清洁了

val df = List(
    ("A1"   , "11"   , "B2"   , "a|b;1;0xFFFFFF"),
    ("A1"   , "12"   , "B1"   , "2"),
    ("A2"   , "12"   , "B2"   , "0xFFF45B")
  ).toDF("Col1" , "Col2" , "Col3" , "Col4")

val regExStr = "^([A-z|]+)?;?(\\d+)?;?(0x.*)?$"
val res = df
  .withColumn("backrefReplace",
       split(regexp_replace('Col4,regExStr,"$1;$2;$3"),";"))
  .select('Col1,'Col2,'Col3,
       explode(split('backrefReplace(0),"\\|")).as("letter"),
       'backrefReplace(1)                      .as("digits"),
       'backrefReplace(2)                      .as("hexadecimal")
  )

+----+----+----+------+------+-----------+
|Col1|Col2|Col3|letter|digits|hexadecimal|
+----+----+----+------+------+-----------+
|  A1|  11|  B2|     a|     1|   0xFFFFFF|
|  A1|  11|  B2|     b|     1|   0xFFFFFF|
|  A1|  12|  B1|      |     2|           |
|  A2|  12|  B2|      |      |   0xFFF45B|
+----+----+----+------+------+-----------+

你仍需要用null替换空字符串,但是......

以前的答案(有人可能仍然喜欢它):

这是一个坚持DataFrames的解决方案,但也非常混乱。您可以先使用regexp_extract三次(可以使用反向引用做更少的事情吗?),最后{| 1}}使用“|”和split。请注意,您需要explode的合并才能返回所有内容(您仍可能希望在此解决方案中将explode中的空字符串更改为letter。)

null

注意:regexp部分可以通过反向引用更好,所以如果有人知道怎么做,请发表评论!

答案 1 :(得分:0)

在使用Dataframes保持100%时,不确定这是可行的,这是一个(有些混乱?)解决方案,使用RDD进行拆分:

import org.apache.spark.sql.functions._
import sqlContext.implicits._

// we switch to RDD to perform the split of Col4 into 3 columns
val rddWithSplitCol4 = input.rdd.map { r =>
  val indexToValue = r.getAs[String]("Col4").split(';').map {
    case s if s.startsWith("0x") => 2 -> s
    case s if s.matches("\\d+") => 1 -> s
    case s => 0 -> s
  }
  val newCols: Array[String] = indexToValue.foldLeft(Array.fill[String](3)("")) {
    case (arr, (index, value)) => arr.updated(index, value)
  }
  (r.getAs[String]("Col1"), r.getAs[Int]("Col2"), r.getAs[String]("Col3"), newCols(0), newCols(1), newCols(2))
}

// switch back to Dataframe and explode alphabets column
val result = rddWithSplitCol4
  .toDF("Col1", "Col2", "Col3", "alphabets", "digits", "hexadecimal")
  .withColumn("alphabets", explode(split(col("alphabets"), "\\|")))

result.show(truncate = false)
// +----+----+----+---------+------+-----------+
// |Col1|Col2|Col3|alphabets|digits|hexadecimal|
// +----+----+----+---------+------+-----------+
// |A1  |11  |B2  |a        |1     |0xFFFFFF   |
// |A1  |11  |B2  |b        |1     |0xFFFFFF   |
// |A1  |12  |B1  |         |2     |           |
// |A2  |12  |B2  |         |      |0xFFF45B   |
// +----+----+----+---------+------+-----------+
相关问题