我尝试安装2.2.0伪模式,而我尝试运行copyfromlocal
来复制样本数据
我现在在目的地路径中使用 / input ,例如 - bin / hadoop fs -copyFromLocal / home / prassanna / Desktop / input / input
我认为它现在有效,我使用下面的方法验证了该文件, bin / hadoop fs -ls / input 14/03/12 09:31:57 WARN util.NativeCodeLoader:无法为您的平台加载native-hadoop库... 在适用的地方使用builtin-java类 发现 1项 -rw-r - r-- 1 root supergroup 64 我还检查了datanode的uI, 但其显示使用%是' 0' 0只是,但它必须显示文件的某些kb(64)对吗?请告诉输入文件是否正确复制到hdfs?** 并告诉我文件在本地存储在本地机器中的确切位置?请帮助解决这种混乱。谢谢你提前
答案 0 :(得分:0)
如果缺少源路径,则必须检查本地计算机上是否存在文件。
但是如果目标文件夹没有丢失,那么首先尝试检查HDFS上该文件夹的存在。 为此,您可以通过:50070 打开hadoop HDFS的Web UI,然后浏览文件系统
替代方法,您可以通过Command
检查文件 hadoop fs -ls /<path of HDFS directory >
如果这样可行,则将文件放入以下命令
hadoop fs -put <local file path> <path of HDFS directory>
如果这些中的任何一个都不起作用,那么你的hadoop缺少一些重要的配置
如果您的Web UI正在打开但命令未运行,请尝试使用
hadoop fs -ls hdfs://<hadoop Master ip>/<path of HDFS directory >
如果这样可以运行put命令,如下所示
hadoop fs -put <local file path> hdfs://<hadoop Master ip>/<path of HDFS directory >