可以在pySpark中的Parquet中的同一分区下存储两个模式

时间:2017-03-29 18:09:19

标签: apache-spark hdfs parquet pyspark-sql

我有两个具有不同模式的数据框,可以说商家数据框和客户数据框的交易记录。我使用PartionBy写入按年,月和日划分商家的df。是否可以将客户df存储在同一分区下?

感谢。

0 个答案:

没有答案