在Spark中加入多个数据框时如何应用Like操作?

时间:2019-01-26 21:17:00

标签: scala apache-spark

我试图加入两个数据框,然后对其应用类似的操作。但是它没有返回任何值。我想在这里进行模式匹配。任何建议我在这里做错了。

import org.apache.spark._
import org.apache.spark.sql.Row

val upcTable = spark.sqlContext.sparkContext.parallelize(Seq(
  Row(1, 50, 100),
  Row(2, 60, 200),
  Row(36, 70, 300),
  Row(45, 80, 400)
))

val lookupUpc = spark.sqlContext.sparkContext.parallelize(Seq(
 Row(3, 70, 300),
 Row(4, 80, 400)
))

val upcDf = spark.sqlContext.createDataFrame(upcTable, StructType(Seq(
  StructField("U_ID", StringType, nullable = false),
  StructField("V_ID", IntegerType, nullable = false),
  StructField("R_ID", IntegerType, nullable = false))))

val lookupDf = spark.sqlContext.createDataFrame(lookupUpc, StructType(Seq(
  StructField("U_ID", StringType, nullable = false),
  StructField("V_ID", IntegerType, nullable = false))))
lookupDf.show()

val joinDf = upcDf.join(lookupDf,Seq("V_ID"),"inner").filter(upcDf("U_ID").like("%lookupDf(U_ID)")).select(upcDf("U_ID"),upcDf("V_ID"),upcDf("R_ID")).show()

我想从upcDf中获得36和45。

1 个答案:

答案 0 :(得分:2)

使用需要String类型的参数(因此也Any)的方法like(而不是期望文字Column的列方法contains)将是更适合您的情况:

val joinDf = upcDf.join(lookupDf, Seq("V_ID"), "inner").
  where(upcDf("U_ID").contains(lookupDf("U_ID"))).
  select(upcDf("U_ID"), upcDf("V_ID"), upcDf("R_ID"))

joinDf.show
// +----+----+----+
// |U_ID|V_ID|R_ID|
// +----+----+----+
// |  45|  80| 400|
// |  36|  70| 300|
// +----+----+----+

请注意,根据列出的模式,示例数据集中的列U_ID的类型应为String

[更新]

根据注释中明确的要求,如果您想将匹配限制为仅开头字符,我建议使用方法regexp_extract,并用以下内容替换上面的where子句:

where(lookupDf("U_ID") === regexp_extract(upcDf("U_ID"), "^(.)", 1))