java hadoop:FileReader VS InputStreamReader

时间:2015-05-29 14:07:47

标签: java hadoop bufferedreader filereader inputstreamreader

我想在hadoop hdfs上使用我的java类,现在我必须重写我的函数。 问题是,如果我使用InputStreamReader我的应用程序读取错误的值。

这里是我的代码(所以它的工作,我想使用未注释的代码部分):

public static GeoTimeDataCenter[] readCentersArrayFromFile(int iteration) {
    Properties pro = new Properties();
    try {
        pro.load(GeoTimeDataHelper.class.getResourceAsStream("/config.properties"));
    } catch (Exception e) {
        e.printStackTrace();
    }
    int k = Integer.parseInt(pro.getProperty("k"));
    GeoTimeDataCenter[] Centers = new GeoTimeDataCenter[k];
    BufferedReader br;
    try {
        //Path pt=new Path(pro.getProperty("seed.file")+(iteration-1));
        //FileSystem fs = FileSystem.get(new Configuration());
        //br=new BufferedReader(new InputStreamReader(fs.open(pt)));
        br = new BufferedReader(new FileReader(pro.getProperty("seed.file")+(iteration-1)));
        for(int i =0; i<Centers.length; i++){
            String[] temp = null;
            try{
                temp = br.readLine().toString().split("\t");
                Centers[i] = new GeoTimeDataCenter(Integer.parseInt(temp[0]),new LatLong(Double.parseDouble(temp[1]),Double.parseDouble(temp[2])),Long.parseLong(temp[3]));
            }
            catch(Exception e) {
                temp = Seeding.randomSingleSeed().split("\t");
                Centers[i] = new GeoTimeDataCenter(i,new LatLong(Double.parseDouble(temp[0]),Double.parseDouble(temp[1])),DateToLong(temp[2]));
            }
        }
        br.close();
    } catch (IOException e) {
        e.printStackTrace();
    }
    return Centers;
}

也许有人知道这个问题?

最好的问候

1 个答案:

答案 0 :(得分:1)

我发现了这个问题。我得到校验和例外。现在我从输入文件中删除所有.crc文件。通过这种方式,我得不到校验和异常,缓冲的阅读器工作正常(未注释的代码部分,楼上)。