我试图加入两个数据框,然后对其应用类似的操作。但是它没有返回任何值。我想在这里进行模式匹配。任何建议我在这里做错了。
import org.apache.spark._
import org.apache.spark.sql.Row
val upcTable = spark.sqlContext.sparkContext.parallelize(Seq(
Row(1, 50, 100),
Row(2, 60, 200),
Row(36, 70, 300),
Row(45, 80, 400)
))
val lookupUpc = spark.sqlContext.sparkContext.parallelize(Seq(
Row(3, 70, 300),
Row(4, 80, 400)
))
val upcDf = spark.sqlContext.createDataFrame(upcTable, StructType(Seq(
StructField("U_ID", StringType, nullable = false),
StructField("V_ID", IntegerType, nullable = false),
StructField("R_ID", IntegerType, nullable = false))))
val lookupDf = spark.sqlContext.createDataFrame(lookupUpc, StructType(Seq(
StructField("U_ID", StringType, nullable = false),
StructField("V_ID", IntegerType, nullable = false))))
lookupDf.show()
val joinDf = upcDf.join(lookupDf,Seq("V_ID"),"inner").filter(upcDf("U_ID").like("%lookupDf(U_ID)")).select(upcDf("U_ID"),upcDf("V_ID"),upcDf("R_ID")).show()
我想从upcDf中获得36和45。
答案 0 :(得分:2)
使用需要String
类型的参数(因此也Any
)的方法like(而不是期望文字Column
的列方法contains)将是更适合您的情况:
val joinDf = upcDf.join(lookupDf, Seq("V_ID"), "inner").
where(upcDf("U_ID").contains(lookupDf("U_ID"))).
select(upcDf("U_ID"), upcDf("V_ID"), upcDf("R_ID"))
joinDf.show
// +----+----+----+
// |U_ID|V_ID|R_ID|
// +----+----+----+
// | 45| 80| 400|
// | 36| 70| 300|
// +----+----+----+
请注意,根据列出的模式,示例数据集中的列U_ID
的类型应为String
。
[更新]
根据注释中明确的要求,如果您想将匹配限制为仅开头字符,我建议使用方法regexp_extract,并用以下内容替换上面的where
子句:
where(lookupDf("U_ID") === regexp_extract(upcDf("U_ID"), "^(.)", 1))