在边缘节点上运行的java应用程序中,我需要删除hdfs文件夹(如果存在)。我需要在运行在文件夹中输出的mapreduce作业(带有spark)之前执行此操作。
我发现我可以使用方法
org.apache.hadoop.fs.FileUtil.fullyDelete(new File(url))
但是,我只能使用本地文件夹(即正在运行的计算机上的文件URL)。我尝试使用类似的东西:
url = "hdfs://hdfshost:port/the/folder/to/delete";
hdfs://hdfshost:port
是hdfs namenode IPC。我用它来mapreduce,所以它是正确的。
然而,它没有做任何事情。
那么,我应该使用什么网址,还是有其他方法?
注意:here是有问题的简单项目。
答案 0 :(得分:17)
这site对我有用。
只需在 WordCount 程序中添加以下代码即可:
import org.apache.hadoop.fs.*;
...
Configuration conf = new Configuration();
Path output = new Path("/the/folder/to/delete");
FileSystem hdfs = FileSystem.get(conf);
// delete existing directory
if (hdfs.exists(output)) {
hdfs.delete(output, true);
}
Job job = Job.getInstance(conf, "word count");
...
您无需明确添加hdfs://hdfshost:port
。
答案 1 :(得分:9)
我是这样做的:
Configuration conf = new Configuration();
conf.set("fs.hdfs.impl",org.apache.hadoop.hdfs.DistributedFileSystem.class.getName());
conf.set("fs.file.impl",org.apache.hadoop.fs.LocalFileSystem.class.getName());
FileSystem hdfs = FileSystem.get(URI.create("hdfs://<namenode-hostname>:<port>"), conf);
hdfs.delete("/path/to/your/file", isRecursive);
您的文件路径中不需要hdfs://hdfshost:port/
答案 2 :(得分:0)
如果您需要删除目录中的所有文件:
1)检查目录中有多少文件。
2)稍后将其全部删除
public void delete_archivos_dedirectorio() throws IOException {
//namenode= hdfs://ip + ":" + puerto
Path directorio = new Path(namenode + "//test//"); //nos situamos en la ruta//
FileStatus[] fileStatus = hdfsFileSystem.listStatus(directorio); //listamos los archivos que hay actualmente en ese directorio antes de hacer nada
int archivos_basura = fileStatus.length; //vemos cuandoarchivos hay en el directorio antes de hacer nada, y luego iteramos hasta el nuemro de archivos que haya y llos vamos borrando para luego ir crandolos de nuevo en el writte.
for (int numero = 0; numero <= archivos_basura ; numero++) {
Path archivo = new Path(namenode + "//test//" + numero + ".txt");
try {
if(hdfsFileSystem.exists(archivo)) {
try {
hdfsFileSystem.delete(archivo, true);
} catch (IOException ex) {
System.out.println(ex.getMessage());
}
}
} catch (IOException e) {
e.printStackTrace();
}
}
}
祝你好运:)