标签: pyspark apache-spark-sql integral
我有一个Spark DataFrame表示特定时刻(已标记日期)的特定设备的能耗(以kW为单位)。我想以kWh计算能耗,它意味着在给定的时间间隔内计算该数据集的积分。如何使用Spark完成它?
DataFrame