标签: apache-spark apache-spark-sql
我在数据集上运行spark sql(SQL大小约为85KB)时遇到问题。似乎我们在spark 1.6.1版本中不能有超过64KB的SQL。
我确实在Spark 2.0中修复了这个问题。 https://issues.apache.org/jira/browse/SPARK-15285
我的群集仍在1.6.1上。是否可以通过覆盖1.6.1库作为临时工作来在我的应用程序中进行此更改?谢谢你的帮助。