标签: amazon-web-services amazon-s3 pyspark command-line-interface pyspark-sql
S3存储桶在2018年每天都有分区。可以使用Pyspark中的read_csv和write_csv函数读取和写入这些文件。如何使用数据框将每天的一年数据移动到前一天。
ex-
aws s3 ls s3://test/folder/date=2018-02-20/ abc.csv xyz.csv aws s3 ls s3://test/folder_new/date=2018-02-19/ abc.csv xyz.csv