webhdfs两步上传文件

时间:2015-10-10 06:21:28

标签: rest hadoop webhdfs

我用4台机器构建一个hadoop集群:

  • {hostname}:{ip-address}
  • master:192.168.1.60
  • slave1:192.168.1.61
  • slave2:192.168.1.62
  • slave3:192.168.1.63

我使用HttpFS以一种宁静的方式将文件上传到hdfs,包含两个步骤来完成任务。

服务器返回结果如:

位置:http://slave1:50075/webhdfs/v1/user/haduser/myfile.txt?op=CREATE&user.name=haduser&namenoderpcaddress=master:8020&overwrite=false

  • 第2步:使用响应地址上传文件。

在步骤1中,如何获取datanode的IP地址(192.168.1.61)而不是主机名(slave1)?

1 个答案:

答案 0 :(得分:0)

如果您的hadoop版本> = 2.5,则在每个datanode配置 $ {HADOOP_HOME} /etc/hadoop/hdfs-site.xml 文件。 加: 属性 dfs.datanode.hostname , 值是 datanodes的ip地址