通过Apache Beam使用ParquetIO读取和写入Parquet文件的示例

时间:2018-07-04 08:16:28

标签: google-cloud-dataflow parquet apache-beam

是否有人尝试使用Apache Beam读取/写入Parquet文件。支持最近在2.5.0版中添加,因此没有太多文档。

我正在尝试读取json输入文件,并希望以镶木地板格式写入。

谢谢。

2 个答案:

答案 0 :(得分:2)

您将需要使用ParquetIO.Sink。它实现了FileIO。

答案 1 :(得分:1)

在不同模块中将以下依赖项添加为 ParquetIO

<dependency>
    <groupId>org.apache.beam</groupId>;
    <artifactId&gt;beam-sdks-java-io-parquet</artifactId>;
    <version>2.6.0</version>;
</dependency>;

//这是可读写的代码。...

PCollection<JsonObject> input = #Your data
PCollection<GenericRecord> pgr =input.apply("parse json", ParDo.of(new DoFn<JsonObject, GenericRecord> {
        @ProcessElement
        public void processElement(ProcessContext context) {
            JsonObject json= context.getElement();
            GenericRecord record = #convert json to GenericRecord with schema
            context.output(record);
        }
    }));
pgr.apply(FileIO.<GenericRecord>write().via(ParquetIO.sink(schema)).to("path/to/save"));

PCollection<GenericRecord> data = pipeline.apply(
            ParquetIO.read(schema).from("path/to/read"));