Hadoop

时间:2015-05-20 16:13:28

标签: scala hadoop amazon-s3 apache-spark

我试图以递归方式删除HDFS中的文件夹。就像是: fs.delete(Path,true)

但是,我尝试删除的文件夹中包含大量文件。有没有办法可以快速删除文件夹。?

我的假设是,真正的递归不会遍历每个文件并批量删除文件夹,但似乎并非如此,因为我可以看到文件被逐个删除。

请告知您的建议。我在EMR-spark上使用scala并尝试删除S3中的文件。

1 个答案:

答案 0 :(得分:3)

使用java库。 Scala与它完全兼容。

val fs = FileSystem.get(getConf())
fs.delete(new Path("path/to/file"), true) // delete file, true for recursive 

here复制。