根据Apache Spark

时间:2018-10-02 17:31:42

标签: scala apache-spark dataframe apache-spark-sql bigdata

我试图通过仅获取包含数组中单词的行来过滤数据集。 我正在使用contains方法,它适用于字符串,但不适用于数组。下面是代码

val dataSet = spark.read.option("header","true").option("inferschema","true").json(path).na.drop.cache()

val threats_path = spark.read.textFile("src/main/resources/cyber_threats").collect()

val newData = dataSet.select("*").filter(col("_source.raw_text").contains(threats_path)).show()

它不起作用,因为Threats_path是字符串数组,并且包含字符串的工作。任何帮助将不胜感激。

1 个答案:

答案 0 :(得分:0)

您可以在列上使用isin udf

它会像这样

val threats_path = spark.read.textFile("src/main/resources/cyber_threats").collect()

val dataSet = ???

dataSet.where(col("_source.raw_text").isin(thread_path: _*))

请注意,如果thread_paths的大小很大,则由于collect和使用isin的过滤器都会对性能产生影响。

我建议您使用dataSetthreats_path一起使用过滤器join。它会像这样

val dataSet = spark.read.option("header","true").option("inferschema","true").json(path).na.drop

val threats_path = spark.read.textFile("src/main/resources/cyber_threats")

val newData = threats_path.join(dataSet, col("_source.raw_text") === col("<col in threats_path >"), "leftouter").show()

希望这会有所帮助