python或pyspark中的条件语句

时间:2017-03-28 19:05:33

标签: python dataframe pyspark spark-dataframe

我正在使用spark查询蜂巢表。

frame = sqlContext.sql("select max(id) from testing.test123")

frame1=frame.map(lambda row: [str(c) for c in row]).collect()

lastval =''.join(frame1[0][0])

我得到的是我期待的最后一个

现在使用这个lastval我想查询另一个表,如下所示

abc = sqlcontext.sql("select * from testing.abc123 where id > {}". format(lastval))

当lastval是一个整数时,我得到No errors。但是当lastval为None时,我将脚本视为失败。因为lastval应该是一个整数。

如何指定lastvalue是否为None,然后将lastval作为0

我试着像belwo但仍然在我做lastval时显示'无'

if lastval is 'None':
 lastval = 0

1 个答案:

答案 0 :(得分:1)

比较字符串时不应使用is。相反,您应该使用==

if lastval == 'None':
    lastval = 0

或者你可能会说lastval = '',在这种情况下你要检查:

if not lastval:
    lastval = 0