将数据集<row>中的行映射到对象类Spark Java

时间:2018-04-20 16:22:31

标签: java apache-spark java-8 functional-programming parquet

使用HBase和Parquet,我编写了代码来从HBase获取值并将值映射到Object类,但是我无法使用数据集对Parquet进行复制。

HBase的:

JavaPairRDD<ImmutableBytesWritable, Result> data = sc.newAPIHadoopRDD(getHbaseConf(),
            TableInputFormat.class, ImmutableBytesWritable.class, Result.class);

JavaRDD<List<Tuple3<Long, Integer, Double>>> tempData = data
                .values()
                //Uses HBaseResultToSimple... class to parse the data.
                .map(value -> {
                    SimpleObject object = oParser.call(value);
                    // Get the sample property, remove leading and ending spaces and split it by comma
                    // to get each sample individually
                    List<Tuple2<String, Integer>> samples = zipWithIndex((object.getSamples().trim().split(",")));

                    // Gets the unique identifier for that sp.
                    Long sp = object.getPos();

                    // Calculates the hamming distance for this sp for each sample.
                    // i.e. 0|0 => 0, 0|1 => 1, 1|0 => 1, 1|1 => 2
                    return samples.stream().map(t -> {
                        String alleles = t._1();
                        Integer patient = t._2();

                        List<String> values = Arrays.asList(alleles.split("\\|"));

                        Double firstA = Double.parseDouble(values.get(0));
                        Double second = Double.parseDouble(values.get(1));

                        // Returns the initial sp id, p id and the distance in form of Tuple.
                        return new Tuple3<>(snp, patient, firstAllele + secondAllele);
                    }).collect(Collectors.toList());
                });

我将Parquet中的数据读入数据集,但简单无法复制上述方法。

Dataset<Row> url = session.read().parquet(fileName);

我只需要知道如何将Dataset<Row>中的行映射到对象类,就像我在上面的方法中使用.map(value -> {...一样。

任何帮助将不胜感激。

1 个答案:

答案 0 :(得分:1)

选项1:将您的数据框(又名Dataset<Row>)转换为类型化数据集。假设类Data是一个适合镶木地板文件结构的简单Java bean,您可以使用:

Dataset<Data> ds = inputDf.as(Encoders.bean(Data.class));

在此数据集上,您可以使用具有键入访问权限的地图功能:

Dataset<String> ds2 = ds.map( d -> d.getA(), Encoders.STRING());

(在这个例子中,我假设类Data有一个名为A的属性为String的属性。)

选项2:另一个不需要额外课程的选项就是直接在地图调用中使用Row对象:

Dataset<String> ds3 = inputDf.map(r -> r.getString(0), Encoders.STRING());

(同样,我假设第一列是一个字符串。)