我用4台机器构建一个hadoop集群:
我使用HttpFS以一种宁静的方式将文件上传到hdfs,包含两个步骤来完成任务。
步骤1:提交HTTP POST请求,不会自动关注重定向,也不会发送文件数据。
curl -i -X POST" http://192.168.1.60:50070/webhdfs/v1/user/haduser/myfile.txt?op=APPEND"
服务器返回结果如:
在步骤1中,如何获取datanode的IP地址(192.168.1.61)而不是主机名(slave1)?
答案 0 :(得分:0)
如果您的hadoop版本> = 2.5,则在每个datanode配置 $ {HADOOP_HOME} /etc/hadoop/hdfs-site.xml 文件。 加: 属性 dfs.datanode.hostname , 值是 datanodes的ip地址。