apache flink:如何解释DataStream.print输出?

时间:2015-11-27 03:54:32

标签: scala apache-flink flink-streaming

我是Flink的新手,试图了解如何最有效地使用它。

我正在尝试使用Window API,从CSV文件中读取。读取的行将转换为案例类,因此

case class IncomingDataUnit (
sensorUUID: String, radiationLevel: Int,photoSensor: Float,
humidity: Float,timeStamp: Long, ambientTemperature: Float)
  extends Serializable {

}

,这就是我阅读行的方式:

env.readTextFile(inputPath).map(datum => {
      val fields = datum.split(",")
      IncomingDataUnit(
        fields(0),              // sensorUUID
        fields(1).toInt,        // radiationLevel
        fields(2).toFloat,      // photoSensor
        fields(3).toFloat,      // humidity
        fields(4).toLong,       // timeStamp
        fields(5).toFloat       // ambientTemperature
      )
    })

稍后,使用一个简单的窗口,我试图打印最大环境温度,因此:

env.setStreamTimeCharacteristic(TimeCharacteristic.ProcessingTime)

val readings =
      readIncomingReadings(env,"./sampleIOTTiny.csv")
      .map(e => (e.sensorUUID,e.ambientTemperature))
      .timeWindowAll(Time.of(5,TimeUnit.MILLISECONDS))
      .trigger(CountTrigger.of(5))
      .evictor(CountEvictor.of(4))
      .max(1)

readings.print

输出包含这些(来自一堆DEBUG日志语句):

1> (probe-987f2cb6,29.43)
1> (probe-987f2cb6,29.43)
3> (probe-dccefede,30.02)
3> (probe-42a9ddca,22.07)
2> (probe-df2d4cad,22.87)
2> (probe-20c609fb,27.62)
4> (probe-dccefede,30.02)

我想要了解的是,如何解释这一点? 重复1> s 代表什么?

令我感到困惑的是, probe-987f2cb6 与我的数据集中的环境温度 29.43不对应。它对应一个不同的值(准确地说是14.72)。

仅供参考,这是数据集:

probe-f076c2b0,201,842.53,75.5372,1448028160,29.37
probe-dccefede,199,749.25,78.6057,1448028160,27.46
probe-f29f9662,199,821.81,81.7831,1448028160,22.35
probe-5dac1d9f,195,870.71,83.1028,1448028160,15.98
probe-6c75cfbe,198,830.06,82.5607,1448028160,30.02
probe-4d78b545,204,778.42,78.412,1448028160,25.92
probe-400c5cdf,204,711.65,73.585,1448028160,22.18
probe-df2d4cad,199,820.8,72.936,1448028161,16.18
probe-f4ef109e,199,785.68,77.5647,1448028161,16.36
probe-3fac3350,200,720.12,78.2073,1448028161,19.19
probe-42a9ddca,193,819.12,74.3712,1448028161,22.07
probe-252a5bbd,197,710.32,80.6072,1448028161,14.64
probe-987f2cb6,200,750.4,76.0533,1448028161,14.72
probe-24444323,197,816.06,84.0816,1448028161,4.405
probe-6dd6fdc4,201,717.64,78.4031,1448028161,29.43
probe-20c609fb,204,804.37,84.5243,1448028161,22.87
probe-c027fdc9,195,858.61,81.7682,1448028161,24.47
probe-2c6cd3de,198,826.96,85.26,1448028162,18.99
probe-960906ca,197,797.63,77.4359,1448028162,27.62

我可能遗失了许多东西。请刺激我。

忘记提及:我正在使用 Flink 0.10.0。

1 个答案:

答案 0 :(得分:2)

"> X"表示打印结果元组的并行任务的任务ID。我只是想知道为什么输出显示值1到4 - 因为您使用的是非并行窗口(数据流未通过.keyBy()分区)并且我希望打印也可以是链接的和非平行的。但也许它不是,并且4个并行打印任务正在运行。

关于你的结果:如果窗口触发,则在所有元组上计算最大字段1,并且窗口的 head 元组值用于字段0.如果你想要要返回包含最大值的完整元组,您可以使用maxBy()代替max()