我正在使用Spark-SQL,我想从Redshift&中检索记录。把它们写到S3。我指的是这个链接Spark-Redshift ...我能够打印DataFrame的架构,但我无法写入S3 ..它正在抛出错误:
error: S3ServiceException:The AWS Access Key Id you provided does not exist in our records.,Status 403,Error InvalidAccessKeyId
写入S3需要做什么?使用Spark ??
将Redshift数据保存到S3的任何其他方法