如何在Spark 2.x中阅读bucketed hive表

时间:2018-05-14 20:08:11

标签: apache-spark hive apache-spark-sql

您好我们如何在Spark 2.x中阅读这个分段的hive表。即使在spark github示例中,他们也解释了写入bucketed表。没有解释读操作。

我还尝试阅读bucketed列,例如https://blog.deepsense.ai/optimize-spark-with-distribute-by-and-cluster-by/中解释的示例 但是我仍然无法在火花中读到一张桌子。如果你有任何想法,请建议阅读。

0 个答案:

没有答案
相关问题