Flink可以将结果写入多个文件(例如Hadoop' MultipleOutputFormat)吗?

时间:2016-05-06 08:41:44

标签: hadoop apache-flink

我正在使用Apache Flink的DataSet API。我想实现一个将多个结果写入不同文件的作业。

我该怎么做?

2 个答案:

答案 0 :(得分:2)

您可以根据需要向DataSet程序添加任意数量的数据接收器。

例如在这样的程序中:

ExecutionEnvironment env = ExecutionEnvironment.getExecutionEnvironment();

DataSet<Tuple3<String, Long, Long>> data = env.readFromCsv(...);
// apply MapFunction and emit
data.map(new YourMapper()).writeToText("/foo/bar");
// apply FilterFunction and emit
data.filter(new YourFilter()).writeToCsv("/foo/bar2");

您从CSV文件中读取了DataSet data。这个data被赋予两个后续转换:

  1. MapFunction并将其结果写入文本文件。
  2. FilterFunction,未过滤的元组将写入CSV文件。
  3. 您还可以根据需要拥有多个数据源,分支和合并数据集(使用unionjoincoGroupcross或广播集。

答案 1 :(得分:0)

您可以在Flink中使用HadoopOutputFormat API,如下所示:

class IteblogMultipleTextOutputFormat[K, V] extends MultipleTextOutputFormat[K, V] {
override def generateActualKey(key: K, value: V): K =
  NullWritable.get().asInstanceOf[K]

override def generateFileNameForKeyValue(key: K, value: V, name: String): String =
  key.asInstanceOf[String]
}

我们可以使用IteblogMultipleTextOutputFormat,如下所示:

val multipleTextOutputFormat = new IteblogMultipleTextOutputFormat[String, String]()
val jc = new JobConf()
FileOutputFormat.setOutputPath(jc, new Path("hdfs:///user/iteblog/"))
val format = new HadoopOutputFormat[String, String](multipleTextOutputFormat,   jc)
val batch = env.fromCollection(List(("A", "1"), ("A", "2"), ("A", "3"),
  ("B", "1"), ("B", "2"), ("C", "1"), ("D", "2")))
batch.output(format)

有关详细信息,请参阅:http://www.iteblog.com/archives/1667