我正在尝试使用Spark创建hive表。 我收到以下错误 -
+- TungstenAggregate(key=[rpt_prd#244,country_code#240,product_code#242], functions=[(count(1),mode=Partial,isDistinct=false)], output=[rpt_prd#244,co
untry_code#240,product_code#242,count#832L])
+- HiveTableScan [rpt_prd#244,country_code#240,product_code#242], MetastoreRelation gfrrtnsd_standardization, pln_arrg_dim, None, [(country_code#24
0 = HK)]
org.apache.spark.sql.catalyst.errors.package$TreeNodeException: execute, tree:
TungstenExchange hashpartitioning(rpt_prd#236,200), None
+- Sort [rpt_prd#236 ASC], true, 0
+- ConvertToUnsafe
+- Exchange rangepartitioning(rpt_prd#236 ASC,200), None
+- ConvertToSafe
+- TungstenAggregate(key=[rpt_prd#244,country_code#240,product_code#242], functions=[(count(1),mode=Final,isDistinct=false)], output=[rpt_prd#236,Dim_countr
y_code#237,Dim_product_code#238,Dim_recordCount#239L])
+- TungstenExchange hashpartitioning(rpt_prd#244,country_code#240,product_code#242,200), None
+- TungstenAggregate(key=[rpt_prd#244,country_code#240,product_code#242], functions=[(count(1),mode=Partial,isDistinct=false)], output=[rpt_prd#244,co
untry_code#240,product_c`enter code here`ode#242,count#832L])
+- HiveTableScan [rpt_prd#244,country_code#240,product_code#242], MetastoreRelation gfrrtnsd_standardization, pln_arrg_dim, None, [(country_code#24
0 = HK)]
请协助从火花创建一个蜂巢表。
答案 0 :(得分:0)
大多数树节点异常将在以下的secnario中发生。
假设你有一个数据帧df1,并通过应用一些转换创建了一个新的数据帧df2,后来用df2连接df1导致最近版本中的树treenode异常。
所以解决方案可能是
你必须创建数据帧df1并创建一个与df1相同的新数据帧df2并在df2上应用转换并创建df3然后用df3和df1进行连接操作。