在spark-shell
中,当我致电Line2时没有遇到这个问题(Line1)。
Line1: not found: value spark_partition_id
Line2: val countPerCustomPartition = businessesDataFrameCustomPartition.groupBy(spark_partition_id).count
然后当我打电话给spark-submit
时,我遇到了问题。我以前在StackOverflow上没有见过,但最终却是一个简单但不明显的解决方案。
答案 0 :(得分:1)
将此行添加到Scala类的顶部:
import org.apache.spark.sql.functions.spark_partition_id