改进火花红移连接器

时间:2018-07-06 07:42:05

标签: apache-spark apache-spark-sql amazon-redshift hadoop2

向Redshift传输数据或从Redshift传输数据时,该库将数据读写到S3。我可以在一些帖子中看到,您可以使用某些hadoop配置来优化Spark会话以使其与S3配合使用:

spark.sparkContext.hadoopConfiguration.set("fs.s3a.fast.upload", "true"). 

对此有任何建议或评论吗?

0 个答案:

没有答案