我有一个相当容易的任务 - 事件正在进入,我希望在同一个窗口中通过键过滤那些值高于每组平均值的事件。 我认为这是代码的相关部分:
val avgfuel = events
.groupBy(window($"enqueuedTime", "30 seconds"), $"weatherCondition")
.agg(avg($"fuelEfficiencyPercentage") as "avg_fuel")
val joined = events.join(avgfuel, Seq("weatherCondition"))
.filter($"fuelEfficiencyPercentage" > $"avg_fuel")
val streamingQuery1 = joined.writeStream
.outputMode("append").
.trigger(Trigger.ProcessingTime("10 seconds")).
.option("checkpointLocation", checkpointLocation).
.format("json").option("path", containerOutputLocation).start()
事件是一个DStream。 问题是我在输出位置得到空文件。 我正在使用Databricks 3.5 - Spark 2.2.1和Scala 2.11
我做错了什么?
谢谢!
编辑:更完整的代码 -
val inputStream = spark.readStream
.format("eventhubs") // working with azure event hubs
.options(eventhubParameters)
.load()
val schema = (new StructType)
.add("id", StringType)
.add("latitude", StringType)
.add("longitude", StringType)
.add("tirePressure", FloatType)
.add("fuelEfficiencyPercentage", FloatType)
.add("weatherCondition", StringType)
val df1 = inputStream.select($"body".cast("string").as("value")
, from_unixtime($"enqueuedTime").cast(TimestampType).as("enqueuedTime")
).withWatermark("enqueuedTime", "1 minutes")
val df2 = df1.select(from_json(($"value"), schema).as("body")
, $"enqueuedTime")
val df3 = df2.select(
$"enqueuedTime"
, $"body.id".cast("integer")
, $"body.latitude".cast("float")
, $"body.longitude".cast("float")
, $"body.tirePressure"
, $"body.fuelEfficiencyPercentage"
, $"body.weatherCondition"
)
val avgfuel = df3
.groupBy(window($"enqueuedTime", "10 seconds"), $"weatherCondition" )
.agg(avg($"fuelEfficiencyPercentage") as "fuel_avg", stddev($"fuelEfficiencyPercentage") as "fuel_stddev")
.select($"weatherCondition", $"fuel_avg")
val broadcasted = sc.broadcast(avgfuel)
val joined = df3.join(broadcasted.value, Seq("weatherCondition"))
.filter($"fuelEfficiencyPercentage" > $"fuel_avg")
val streamingQuery1 = joined.writeStream.
outputMode("append").
trigger(Trigger.ProcessingTime("10 seconds")).
option("checkpointLocation", checkpointLocation).
format("json").option("path", outputLocation).start()
执行时没有错误,一段时间后开始写入结果。我可能是由于聚合结果的广播,但我不确定。
答案 0 :(得分:1)
小调查;)
Spark 2.2中不允许使用Stream-Stream连接。我已尝试使用events
作为rate
来源运行您的代码,我得到了:
org.apache.spark.sql.AnalysisException:不支持两个流式DataFrames / Datasets之间的内部联接;; 加入Inner,(值#1L = eventValue#41L)
结果非常出乎意料 - 可能您使用read
代替readStream
并且您没有创建流式数据集,而是静态数据集。将其更改为readStream
,它将起作用 - 当然在升级到2.3
代码 - 没有上面的评论 - 是正确的,应该在Spark 2.3上正确运行。请注意,您还必须将模式更改为complete
而不是append
,因为您正在进行汇总