标签: apache-spark pyspark
现在,我必须使用df.count> 0检查数据帧是否为空。但它效率低下。有没有更好的方法呢。
感谢。
PS:我想检查它是否为空,以便我只保存数据框,如果它不是空的
How to check if spark dataframe is empty - 这个问题在scala告诉我一个方法,我在pyspark寻找方法。