标签: apache-spark hive apache-spark-sql spark-hive
spark在从1000 columns表中读取hive时会有限制吗?它告诉我由于计划太长而将其截断,并且我发现metastore连接丢失。我可以printSchema读取它,但是当我对其执行操作时,它会抛出MetaStoreclient异常。我还有其他由100列创建的表,但是我能够读取它并对其执行显示操作。它只是如上所述发出警告,但是将显示输出。是否是其他具有permission列的表的1000问题,因为它尚未投入生产n我尚未创建它。
spark
1000 columns
hive
metastore
printSchema
MetaStoreclient
100
permission
1000