我写信是否有人知道如何加速在EMR中运行Spark的S3写入时间?
我的Spark Job需要4个多小时才能完成,但群集在最初的1.5小时内只处于负载状态。
我很好奇Spark一直在做什么。我查看了日志,发现了许多s3 mv
个命令,每个文件一个。然后直接看看S3我看到我的所有文件都在 _temporary 目录中。
中学,我关注我的群集成本,看来我需要为这项特定任务购买2小时的计算。但是,我最终买了5个小时。我很好奇EMR AutoScaling在这种情况下是否有助于降低成本。
有些文章讨论了更改文件输出提交器算法,但我没有成功。
sc.hadoopConfiguration.set("mapreduce.fileoutputcommitter.algorithm.version", "2")
快速写入本地HDFS。我很好奇,如果发出一个hadoop命令将数据复制到S3会更快吗?
答案 0 :(得分:12)
您看到的是outputcommitter和s3的问题。
提交作业在_temporary文件夹上应用fs.rename
,因为S3不支持重命名,这意味着单个请求现在正在复制并删除从_temporary到其最终目的地的所有文件..
sc.hadoopConfiguration.set("mapreduce.fileoutputcommitter.algorithm.version", "2")
仅适用于hadoop版本> 2.7。它的作用是在提交任务中从_temporary复制每个文件而不是提交作业,因此它是分布式的并且工作得非常快。
如果您使用旧版本的hadoop,我会使用Spark 1.6并使用:
sc.hadoopConfiguration.set("spark.sql.parquet.output.committer.class","org.apache.spark.sql.parquet.DirectParquetOutputCommitter")
*请注意,它不适用于打开规格或以附加模式书写
**还要注意它在Spark 2.0中被弃用(由algorithm.version = 2代替)
在我的团队中BTW我们实际上用Spark写入HDFS并在生产中使用DISTCP作业(特别是s3-dist-cp)将文件复制到S3但是这样做是出于其他几个原因(一致性,容错性)所以它没有必要..你可以使用我的建议快速写入S3。答案 1 :(得分:5)
直接提交者是从火花中拉出来的,因为它不能应对故障。我强烈反对使用它。
Hadoop,s3guard正在进行工作,要添加0重命名提交者,这将是O(1)和容错;留意HADOOP-13786。
暂时忽略“魔术提交者”,基于Netflix的分段提交者将首先发布(hadoop 2.9?3.0?)
结果:任务提交需要数据/带宽秒,但作业提交不会超过目标文件夹上1-4 GET的时间和每个待处理文件的POST,后者被并行化。
你可以选择这项工作所依据的提交者,from netflix,并且可能今天在火花中使用它。设置文件commit algorithm = 1(应该是默认值)或者它实际上不会写入数据。
答案 2 :(得分:4)
我有类似的用例,我使用spark写入s3并且有性能问题。主要原因是spark创建了大量零字节部分文件,将临时文件替换为实际文件名正在减慢写入过程。尝试下面的方法作为解决方法
将spark的输出写入HDFS并使用Hive写入s3。由于hive创建的零件文件数量较少,因此性能要好得多。我遇到的问题是(使用spark时也有同样的问题),由于安全原因,prod env中没有提供对策略的删除操作。在我的情况下,S3存储桶是加密的。
将火花输出写入HDFS并将复制的hdfs文件写入本地并使用aws s3复制将数据推送到s3。用这种方法获得了第二好的结果。亚马逊创建了门票,他们建议使用这个。
使用s3 dist cp将文件从HDFS复制到S3。这没有问题,但没有表现
答案 3 :(得分:1)
你对火花输出有什么看法? 如果您看到许多重命名操作,请阅读this
答案 4 :(得分:0)
我们在WASB上使用Spark在Azure上遇到了同样的情况。 我们最终决定不直接将火花与分散式存储一起使用。 我们确实将spark.write写入实际的hdfs://目标,并开发了一个特定的工具来执行此操作:hadoop copyFromLocal hdfs:// wasb:// 然后,HDFS是我们的临时缓冲区,然后归档到WASB(或S3)。
答案 5 :(得分:0)
您还要写入多大的文件?一个核心写入一个非常大的文件比拆分文件并让多个工作人员写出较小的文件要慢得多。
答案 6 :(得分:0)
我也是同样的问题,我找到了改变s3协议的解决方案,最初我使用s3a://来读写数据,然后我改为只使用s3://,效果很好,实际上我的进程追加数据。