Spark无法运行超过64KB大小的SQL

时间:2016-07-01 12:22:59

标签: apache-spark apache-spark-sql

我在数据集上运行spark sql(SQL大小约为85KB)时遇到问题。似乎我们在spark 1.6.1版本中不能有超过64KB的SQL。

我确实在Spark 2.0中修复了这个问题。 https://issues.apache.org/jira/browse/SPARK-15285

我的群集仍在1.6.1上。是否可以通过覆盖1.6.1库作为临时工作来在我的应用程序中进行此更改?谢谢你的帮助。

0 个答案:

没有答案