我有很多pyspark数据框,我想加入两个pyspark数据框,但出现此错误:
org.apache.spark.sql.catalyst.errors.package$TreeNodeException: execute, tree:
Dataframe_1:
包含来自其他数据框的许多联接
其中一些数据框具有分组汇总,然后合并到主Dataframe_1
中。
Dataframe_2:
还包含来自其他数据帧的许多联接,并且其中一些数据帧具有groupby聚合,然后合并到主Dataframe_2
中。
在所有合并完成后,还按计数包含更多分组
当我尝试加入pysaprk数据帧:Dataframe_1
和Dataframe_2
时,出现以下错误:
org.apache.spark.sql.catalyst.errors.package$TreeNodeException: execute, tree:
/databricks/spark/python/pyspark/sql/dataframe.py in show(self, n, truncate, vertical)
377 """
378 if isinstance(truncate, bool) and truncate:
--> 379 print(self._jdf.showString(n, 20, vertical))
380 else:
381 print(self._jdf.showString(n, int(truncate), vertical))
/databricks/spark/python/lib/py4j-0.10.7-src.zip/py4j/java_gateway.py in __call__(self, *args)
1255 answer = self.gateway_client.send_command(command)
1256 return_value = get_return_value(
-> 1257 answer, self.gateway_client, self.target_id, self.name)
1258
1259 for temp_arg in temp_args:
/databricks/spark/python/pyspark/sql/utils.py in deco(*a, **kw)
61 def deco(*a, **kw):
62 try:
---> 63 return f(*a, **kw)
64 except py4j.protocol.Py4JJavaError as e:
65 s = e.java_exception.toString()
/databricks/spark/python/lib/py4j-0.10.7-src.zip/py4j/protocol.py in get_return_value(answer, gateway_client, target_id, name)
326 raise Py4JJavaError(
327 "An error occurred while calling {0}{1}{2}.\n".
--> 328 format(target_id, ".", name), value)
329 else:
330 raise Py4JError(
Py4JJavaError: An error occurred while calling o2076.showString.
: org.apache.spark.sql.catalyst.errors.package$TreeNodeException: execute, tree:
Exchange hashpartitioning(user_id#1135L, 200)
+- *(213) HashAggregate(keys=[user_id#1135L], functions=[merge_sum(merge sum#3552L) AS sum#3552L, partial_count(distinct team_id#2897L) AS count#3550L], output=[user_id#1135L, sum#3552L, count#3550L])
+- *(213) HashAggregate(keys=[user_id#1135L, team_id#2897L], functions=[merge_sum(merge sum#3552L) AS sum#3552L], output=[user_id#1135L, team_id#2897L, sum#3552L])
......
GIANT HASH HIERARCHY
......
Caused by: java.lang.RuntimeException: Couldn't find team_id#1693.....
使用Databricks 5.2(包括Apache Spark 2.4.0,Scala 2.11)
我尝试过合并,收集,重新分区,然后再加入,一切都失败了。
如果我显示/显示任何数据框,它们将显示完整的准确数据
如果我转换为熊猫,则可以合并使用
我希望它能够准确地合并键上的两个数据框。我在做什么本质上是错误的。
当我将dataframe_1加入另一个小型数据框时,它会起作用
当我将dataframe_2加入另一个小数据框时,它会起作用
当我将dataframe_1加入dataframe_2时不起作用