一直在试图准确了解Spark的目录API如何存储元数据。
我找到了一些资源,但没有答案:
我看到一些教程将Hive Metastore的存在视为理所当然。
除了目录功能外,编写DF时的分区和排序功能似乎还取决于Hive ...因此,“每个人”在谈论持久化DF的关键Spark功能时似乎都认为Hive是理所当然的。
答案 0 :(得分:0)
当Spark随附hive-site.xml
时,它会注意到Hive MetaStore,它通常放在$SPARK_HOME/conf
下。每当创建enableHiveSupport()
时使用SparkSession
方法时,Spark都会查找在哪里以及如何
与Hive Metastore建立联系。因此,Spark没有明确存储配置单元设置。