斯卡拉错误:未发现:价值spark_partition_id

时间:2019-02-02 20:19:08

标签: scala apache-spark

spark-shell中,当我致电Line2时没有遇到这个问题(Line1)。

Line1: not found: value spark_partition_id
Line2: val countPerCustomPartition = businessesDataFrameCustomPartition.groupBy(spark_partition_id).count

然后当我打电话给spark-submit时,我遇到了问题。我以前在StackOverflow上没有见过,但最终却是一个简单但不明显的解决方案。

  • 的Scala 2.11.8
  • 火花2.3.2

1 个答案:

答案 0 :(得分:1)

将此行添加到Scala类的顶部:

import org.apache.spark.sql.functions.spark_partition_id