Spark SQL DataFrame写入S3

时间:2016-08-19 10:56:59

标签: apache-spark amazon-s3 apache-spark-sql

我正在使用Spark-SQL,我想从Redshift&中检索记录。把它们写到S3。我指的是这个链接Spark-Redshift ...我能够打印DataFrame的架构,但我无法写入S3 ..它正在抛出错误:

 error:  S3ServiceException:The AWS Access Key Id you provided does not exist in our records.,Status 403,Error InvalidAccessKeyId

写入S3需要做什么?使用Spark ??

将Redshift数据保存到S3的任何其他方法

0 个答案:

没有答案