无法将示例文件加载到hadoop 2.2.0中

时间:2014-03-11 17:09:48

标签: hadoop hadoop2

我尝试安装2.2.0伪模式,而我尝试运行copyfromlocal来复制样本数据

我现在在目的地路径中使用 / input ,例如 - bin / hadoop fs -copyFromLocal / home / prassanna / Desktop / input / input

我认为它现在有效,我使用下面的方法验证了该文件, bin / hadoop fs -ls / input 14/03/12 09:31:57 WARN util.NativeCodeLoader:无法为您的平台加载native-hadoop库... 在适用的地方使用builtin-java类 发现 1项 -rw-r - r-- 1 root supergroup 64 我还检查了datanode的uI, 但其显示使用%是' 0' 0只是,但它必须显示文件的某些kb(64)对吗?请告诉输入文件是否正确复制到hdfs?** 并告诉我文件在本地存储在本地机器中的确切位置?请帮助解决这种混乱。谢谢你提前

1 个答案:

答案 0 :(得分:0)

如果缺少源路径,则必须检查本地计算机上是否存在文件。

但是如果目标文件夹没有丢失,那么首先尝试检查HDFS上该文件夹的存在。 为此,您可以通过:50070 打开hadoop HDFS的Web UI,然后浏览文件系统

替代方法,您可以通过Command

检查文件
 hadoop fs -ls /<path of HDFS directory >

如果这样可行,则将文件放入以下命令

  hadoop fs -put <local file path>  <path of HDFS directory>  

如果这些中的任何一个都不起作用,那么你的hadoop缺少一些重要的配置

如果您的Web UI正在打开但命令未运行,请尝试使用

 hadoop fs -ls hdfs://<hadoop Master ip>/<path of HDFS directory >

如果这样可以运行put命令,如下所示

 hadoop fs -put <local file path> hdfs://<hadoop Master ip>/<path of HDFS directory >