如何使用scala api编写不像spark sql中的查询?

时间:2016-05-11 10:54:53

标签: apache-spark-sql

我想使用Scala API将以下查询转换为Spark SQL:

select ag.part_id name from sample c join testing ag on c.part=ag.part and concat(c.firstname,c.lastname) not like 'Dummy%' 

有什么想法吗?

提前致谢

3 个答案:

答案 0 :(得分:1)

也许这会奏效:

import org.apache.spark.sql.functions._

val c = sqlContext.table("sample")
val ag = sqlContext.table("testing")

val fullnameCol = concat(c("firstname"), c("lastname))

val resultDF = c.join(ag, (c("part") === ag("part")) && !fullnameCol.like("Dummy%"))

有关我上面使用的功能的更多信息,请查看以下链接:

答案 1 :(得分:0)

你是这个意思

df.filter("filed1 not like 'Dummy%'").show

df.filter("filed1 ! like 'Dummy%'").show

答案 2 :(得分:-1)

这样使用

df.filter(!'col1.like(“%COND%”)。show