两个Spark数据帧的并集

时间:2018-08-30 11:35:56

标签: python apache-spark

我尝试在Python中的两个Spark DataFrame之间进行联合,其中一个有时是空的,我进行了一次测试是否返回完整的。  例如,下面这条小代码会返回错误:

std::shared_ptr

有人可以告诉我哪里出问题了吗?

1 个答案:

答案 0 :(得分:0)

计数可能需要很长时间。在Scala中:

dataframe.rdd.isEmpty()