WebHdfsFileSystem本地ip vs网络ip hadoop

时间:2013-10-18 00:02:40

标签: hadoop webhdfs

需要从hdfs群集外部读取HDFS。我偶然发现了WebHdfsFileSystem,尽管我有了这个想法,但我无法使用网络地址。例如,只要我使用127.0.0.1或localhost,下面的代码就可以正常工作。但是当我使用网络IP地址192.168。时,我得到“重试连接到服务器”消息,然后是ConnectException。

import java.io.IOException;

import org.apache.hadoop.conf.Configuration;
import org.apache.hadoop.fs.FileSystem;
import org.apache.hadoop.fs.Path;
import org.apache.hadoop.hdfs.web.WebHdfsFileSystem;



public class ReadHDFSFile {

    public static void main(String[] args) {
        Path p = new Path("hdfs://127.0.0.1:9000/user/hduser");
        WebHdfsFileSystem web = new WebHdfsFileSystem();
        try {
            Configuration conf = new Configuration();
            conf.set("fs.default.name","hdfs://127.0.0.1:9000/");
            web.setConf(conf);
            Configuration conf1 = web.getConf();
            FileSystem fs = FileSystem.get(web.getConf());
            System.out.println(fs.exists(p));
        } catch (IOException e) {
            e.printStackTrace();
        }
    }
}

我不确定我在这里失踪了什么。

1 个答案:

答案 0 :(得分:2)

我有一个适用于Hadoop 2.4的版本。相对于使用常规Hadoop FileSystem API,我不得不改变两件事:

  • 协议从hdfs://更改为webhdfs://
  • 端口更改为http-port(在我们的Hortonworks群集上是50070),而不是默认的hdfs端口(可能也称为RPC端口?),在我们的系统上是8020

适用于我的示例代码:

Configuration conf = new Configuration();
String conxUrl = String.format("webhdfs://%s:%s", NAMENODE_IP_ADDR, WEBHDFS_PORT);
conf.set("fs.defaultFS", conxUrl);

FileSystem fs = WebHdfsFileSystem.get(conf);
Path path = new Path("/path/to/my/file");
System.out.println(fs.exists(path));