标签: python apache-spark
我尝试在Python中的两个Spark DataFrame之间进行联合,其中一个有时是空的,我进行了一次测试是否返回完整的。 例如,下面这条小代码会返回错误:
std::shared_ptr
有人可以告诉我哪里出问题了吗?
答案 0 :(得分:0)
计数可能需要很长时间。在Scala中:
dataframe.rdd.isEmpty()