标签: scala apache-spark spark-dataframe hiveql
我想将df保存为分区镶木地板,因为记录插入记录需要时间。任何人都可以帮助我如何保存它并指向一个蜂巢表。
答案 0 :(得分:0)
df.write.parquet("/parquet/file/path")
然后,您可以创建指向镶木地板文件位置的Hive external table。
Hive external table