oracle nvl而不是spark sql中的函数

时间:2017-01-23 21:34:06

标签: apache-spark apache-spark-sql spark-dataframe

我正在尝试在spark 1.5.0中实现下面的oracle逻辑,我有像

这样的选择查询

前:

select name, id, age, country, CASE WHEN (id is not null AND NVL(country,'DUMMY') NOT IN (us,'DUMMY') )
THEN correct 
ELSE wrong
END Code(one of the column)
from employee

我想在spark中实现case和NVL逻辑有人可以帮助我如何使用数据帧在spark scala API中实现这个逻辑。

1 个答案:

答案 0 :(得分:-1)

DF: ID,描述,值 1,“东西”,“它在那里” 2, “无”,空

SQL: 从df中选择id,description,nvl(value,'N');

结果: ID,描述,值 1,'东西','它就在那里' 2, '无', 'N'

在spark 2.1.0中测试