我有一个名为“结果”的字母数字列,我想将其解析为4个不同的列:前缀,后缀,值和pure_text。
我想通过使用RLIKE和REGEX的Spark SQL来解决此问题,但也可以对PySpark / Scala开放
纯文本:仅包含字母(或)(如果存在数字),则它们应具有特殊字符“-”或多个小数(即9.9.0)或数字后跟一个字母然后再输入一个数字(即3x4u)
前缀:任何无法归类为“ pure_text”的内容都将被考虑在内。需要提取第一个数字[0-9]之前的任何字符。
后缀:任何不能归类为“ pure_text”的内容都将被考虑在内。最后一位[0-9]之后的任何字符都需要提取。
值:任何不能归类为“ pure_text”的内容都将被考虑在内。提取所有数值,包括小数点。
Result
11 H
111L
<.004
>= 0.78
val<=0.6
xyz 100 abc
1-9
aaa 100.3.4
a1q1
预期输出:
Result Prefix Suffix Value Pure_Text
11 H H 11
111L L 111
.9 0.9
<.004 < 0.004
>= 0.78 >= 0.78
val<=0.6 val<= 0.6
xyz 100 abc xyz abc 100
1-9 1-9
aaa 100.3.4 aaa 100.3.4
a1q1 a1q1
答案 0 :(得分:1)
这是使用UDF的一种方法,该UDF应用模式匹配将字符串内容提取到case类中。模式匹配以正则表达式模式value
的数字[+-]?(?:\d*\.)?\d+
为中心,以提取数字的首次出现,例如“ 1.23”,“。99”,“-100”等。 suffix
中捕获的其余子字符串确定原始字符串中的数字子字符串是否合法。
import org.apache.spark.sql.functions._
import spark.implicits._
case class RegexRes(prefix: String, suffix: String, value: Option[Double], pure_text: String)
val regexExtract = udf{ (s: String) =>
val pattern = """(.*?)([+-]?(?:\d*\.)?\d+)(.*)""".r
s match {
case pattern(pfx, num, sfx) =>
if (sfx.exists(_.isDigit))
RegexRes("", "", None, s)
else
RegexRes(pfx, sfx, Some(num.toDouble), "")
case _ =>
RegexRes("", "", None, s)
}
}
val df = Seq(
"11 H", "111L", ".9", "<.004", ">= 0.78", "val<=0.6", "xyz 100 abc", "1-9", "aaa 100.3.4", "a1q1"
).toDF("result")
df.
withColumn("regex_res", regexExtract($"result")).
select($"result", $"regex_res.prefix", $"regex_res.suffix", $"regex_res.value", $"regex_res.pure_text").
show
// +-----------+------+------+-----+-----------+
// | result|prefix|suffix|value| pure_text|
// +-----------+------+------+-----+-----------+
// | 11 H| | H| 11.0| |
// | 111L| | L|111.0| |
// | .9| | | 0.9| |
// | <.004| <| |0.004| |
// | >= 0.78| >= | | 0.78| |
// | val<=0.6| val<=| | 0.6| |
// |xyz 100 abc| xyz | abc|100.0| |
// | 1-9| | | null| 1-9|
// |aaa 100.3.4| | | null|aaa 100.3.4|
// | a1q1| | | null| a1q1|
// +-----------+------+------+-----+-----------+