如何在pyspark数据框中提取正则表达式模式的所有实例?

时间:2019-08-26 18:48:32

标签: python regex apache-spark pyspark

我在pyspark数据帧中有一个StringType()列,我想从该字符串中提取一个正则表达式模式的所有实例,并将它们放在ArrayType(StringType())的新列中

例如: 假设正则表达式模式为“ [a-z] *([0-9] *)”

input df:
stringValue
a1234bc123

output df:
stringValue    output
a1234bc123     ['1234', '123']
av1tb12h18     ['1', '12', '18']
abcd           []

谢谢。

3 个答案:

答案 0 :(得分:1)

Spark 3.1+regexp_extract_all 可用。

<块引用>

regexp_extract_all(str, regexp[, idx]) - 提取 str 中与 regexp 表达式匹配并对应于正则表达式组索引的所有字符串。

df = df.withColumn('output', F.expr("regexp_extract_all(stringValue, '[a-z]*([0-9]+)', 1)"))

df.show()
#+-----------+-----------+
#|stringValue|     output|
#+-----------+-----------+
#| a1234bc123|[1234, 123]|
#| av1tb12h18|[1, 12, 18]|
#|       abcd|         []|
#+-----------+-----------+

答案 1 :(得分:0)

尝试在split中使用array_removefunctions的火花:

  1. 创建测试DataFrame
from pyspark.sql import functions as F
df = spark.createDataFrame([("a1234bc123",), ("av1tb12h18",), ("abcd",)],["stringValue"])
df.show()

原始DataFrame:

+-----------+
|stringValue|
+-----------+
| a1234bc123|
| av1tb12h18|
|       abcd|
+-----------+
  1. 使用split仅将字符串分成数字
df = df.withColumn("mid", F.split('stringValue', r'[a-zA-Z]'))
df.show()

输出:

+-----------+-----------------+
|stringValue|              mid|
+-----------+-----------------+
| a1234bc123|  [, 1234, , 123]|
| av1tb12h18|[, , 1, , 12, 18]|
|       abcd|       [, , , , ]|
+-----------+-----------------+
  1. 最后,使用array_remove删除非数字元素
df = df.withColumn("output", F.array_remove('mid', ''))
df.show()

最终输出:

+-----------+-----------------+-----------+
|stringValue|              mid|     output|
+-----------+-----------------+-----------+
| a1234bc123|  [, 1234, , 123]|[1234, 123]|
| av1tb12h18|[, , 1, , 12, 18]|[1, 12, 18]|
|       abcd|       [, , , , ]|         []|
+-----------+-----------------+-----------+

答案 2 :(得分:0)

您可以使用功能模块的regexp_replacesplit api的组合

import pyspark.sql.types as t
import pyspark.sql.functions as f

l1 = [('anystring',),('a1234bc123',),('av1tb12h18',)]
df = spark.createDataFrame(l1).toDF('col')
df.show()
+----------+
|       col|
+----------+
| anystring|
|a1234bc123|
|av1tb12h18|
+----------+

现在使用替换匹配的正则表达式,然后用“,”分隔。 $ 1表示替换后的值,因此对于匹配的正则表达式将为空白。

e.g replace('anystring')
$0 = anystring
$1 = ""

dfl1 = df.withColumn('temp', f.split(f.regexp_replace("col", "[a-z]*([0-9]*)", "$1,"), ","))

dfl1.show()
+----------+---------------+
|       col|           temp|
+----------+---------------+
| anystring|         [, , ]|
|a1234bc123|[1234, 123, , ]|
|av1tb12h18|[1, 12, 18, , ]|
+----------+---------------+

火花<2.4

使用UDF替换数组的空值

def func_drop_from_array(arr):
    return [x for x in arr if x != '']

drop_from_array = f.udf(func_drop_from_array, t.ArrayType(t.StringType()))

dfl1.withColumn('final', drop_from_array('temp')).show()
+----------+---------------+-----------+
|       col|           temp|      final|
+----------+---------------+-----------+
| anystring|         [, , ]|         []|
|a1234bc123|[1234, 123, , ]|[1234, 123]|
|av1tb12h18|[1, 12, 18, , ]|[1, 12, 18]|
+----------+---------------+-----------+

火花> = 2.4

使用array_remove

dfl1.withColumn('final', f.array_remove('temp','')).show()

+----------+---------------+-----------+
|       col|           temp|      final|
+----------+---------------+-----------+
| anystring|         [, , ]|         []|
|a1234bc123|[1234, 123, , ]|[1234, 123]|
|av1tb12h18|[1, 12, 18, , ]|[1, 12, 18]|
+----------+---------------+-----------+