使用Spark和DataFrames计算积分

时间:2016-10-19 12:47:49

标签: pyspark apache-spark-sql integral

我有一个Spark DataFrame表示特定时刻(已标记日期)的特定设备的能耗(以kW为单位)。我想以kWh计算能耗,它意味着在给定的时间间隔内计算该数据集的积分。如何使用Spark完成它?

0 个答案:

没有答案