Spark Streaming聚合和过滤器在同一窗口中

时间:2018-01-19 13:38:46

标签: apache-spark spark-streaming

我有一个相当容易的任务 - 事件正在进入,我希望在同一个窗口中通过键过滤那些值高于每组平均值的事件。 我认为这是代码的相关部分:

val avgfuel = events
    .groupBy(window($"enqueuedTime", "30 seconds"), $"weatherCondition")    
    .agg(avg($"fuelEfficiencyPercentage") as "avg_fuel")    

val joined = events.join(avgfuel, Seq("weatherCondition"))
    .filter($"fuelEfficiencyPercentage" > $"avg_fuel")

val streamingQuery1 = joined.writeStream
    .outputMode("append").
    .trigger(Trigger.ProcessingTime("10 seconds")).
    .option("checkpointLocation", checkpointLocation).
    .format("json").option("path", containerOutputLocation).start()

事件是一个DStream。 问题是我在输出位置得到空文件。 我正在使用Databricks 3.5 - Spark 2.2.1和Scala 2.11

我做错了什么?

谢谢!

编辑:更完整的代码 -

val inputStream = spark.readStream
  .format("eventhubs") // working with azure event hubs
  .options(eventhubParameters)
  .load()

val schema = (new StructType)    
      .add("id", StringType)
      .add("latitude", StringType)
      .add("longitude", StringType)
      .add("tirePressure", FloatType)
      .add("fuelEfficiencyPercentage", FloatType)
      .add("weatherCondition", StringType)

val df1 = inputStream.select($"body".cast("string").as("value")
                             , from_unixtime($"enqueuedTime").cast(TimestampType).as("enqueuedTime")
                             ).withWatermark("enqueuedTime", "1 minutes")

val df2 = df1.select(from_json(($"value"), schema).as("body")
                     , $"enqueuedTime")

val df3 = df2.select(
  $"enqueuedTime"
  , $"body.id".cast("integer")
  , $"body.latitude".cast("float")
  , $"body.longitude".cast("float")
  , $"body.tirePressure"
  , $"body.fuelEfficiencyPercentage"
  , $"body.weatherCondition"
)

val avgfuel = df3
  .groupBy(window($"enqueuedTime", "10 seconds"), $"weatherCondition" )    
  .agg(avg($"fuelEfficiencyPercentage") as "fuel_avg", stddev($"fuelEfficiencyPercentage") as "fuel_stddev")
  .select($"weatherCondition", $"fuel_avg")

val broadcasted = sc.broadcast(avgfuel)

val joined = df3.join(broadcasted.value, Seq("weatherCondition"))
                .filter($"fuelEfficiencyPercentage" > $"fuel_avg")

val streamingQuery1 = joined.writeStream.
      outputMode("append").
      trigger(Trigger.ProcessingTime("10 seconds")).
      option("checkpointLocation", checkpointLocation).
      format("json").option("path", outputLocation).start()

执行时没有错误,一段时间后开始写入结果。我可能是由于聚合结果的广播,但我不确定。

1 个答案:

答案 0 :(得分:1)

小调查;)

  1. 事件不能成为DStream,因为您可以选择使用数据集操作 - 它必须是数据集
  2. Spark 2.2中不允许使用Stream-Stream连接。我已尝试使用events作为rate来源运行您的代码,我得到了:

      

    org.apache.spark.sql.AnalysisException:不支持两个流式DataFrames / Datasets之间的内部联接;;   加入Inner,(值#1L = eventValue#41L)

  3. 结果非常出乎意料 - 可能您使用read代替readStream并且您没有创建流式数据集,而是静态数据集。将其更改为readStream,它将起作用 - 当然在升级到2.3

  4. 之后
  5. 代码 - 没有上面的评论 - 是正确的,应该在Spark 2.3上正确运行。请注意,您还必须将模式更改为complete而不是append,因为您正在进行汇总