Spark无法读取蜂巢表

时间:2019-07-01 08:22:08

标签: apache-spark hive apache-spark-sql spark-hive

spark在从1000 columns表中读取hive时会有限制吗?它告诉我由于计划太长而将其截断,并且我发现metastore连接丢失。我可以printSchema读取它,但是当我对其执行操作时,它会抛出MetaStoreclient异常。我还有其他由100列创建的表,但是我能够读取它并对其执行显示操作。它只是如上所述发出警告,但是将显示输出。是否是其他具有permission列的表的1000问题,因为它尚未投入生产n我尚未创建它。

0 个答案:

没有答案