我不小心在HDFS中创建了一个名为“再次”的目录。我正在尝试删除目录。我已经尝试了所有可以帮助的方法,但是都没有成功。我尝试了“ hdfs dfs -rm -r / user / [用户名] / *”。我尝试了'hdfs dfs -rm -r'/ user / [用户名] /再次。”。这些都不起作用!即使是第一个删除了除我要删除的目录之外的所有目录的
。Hadoop 2.7.3
有什么想法吗?
答案 0 :(得分:0)
您可以尝试使用?
占位符:
hdfs dfs -rm -r /user/[username]/again?
理论上也可以匹配其他文件,但是如果只有一个匹配文件,则应该可以很好地工作。
答案 1 :(得分:0)
尝试使用
hdfs dfs -rm -r "/user/[username]/again\."
或
hdfs dfs -rm -r ".\ /user/[username]/again\."
注意:如果您有色相,请使用色相。这将使生活变得轻松。
答案 2 :(得分:0)
没有一个响应有效,但是,谢谢大家的响应。我只是删除了整个目录结构,并从现有实例刷新了环境。