如何在pyspark中检查spark数据帧是否为空

时间:2018-01-29 21:24:09

标签: apache-spark pyspark

现在,我必须使用df.count> 0检查数据帧是否为空。但它效率低下。有没有更好的方法呢。

感谢。

PS:我想检查它是否为空,以便我只保存数据框,如果它不是空的

How to check if spark dataframe is empty - 这个问题在scala告诉我一个方法,我在pyspark寻找方法。

0 个答案:

没有答案