我尝试使用databricks笔记本为带有scala的Apache Spark定义一个函数。 当我测试功能时,所有功能均正常运行:
import scala.collection.mutable.HashMap
var medians: HashMap[String,Double] = new HashMap()
doubleTypeCols.foreach{ x => medians += (x -> getMedianCol(dfTrain, x))}
我会得到正确的地图
当我将其定义为函数时,会收到错误消息:
import scala.collection.mutable.HashMap
def test(cols:Seq[String]):HashMap[String,Double] = {
var medians: HashMap[String,Double] = new HashMap()
cols.foreach{ x => medians += (x -> getMedianCol(dfTrain, x))}
return medians
}
导致“ scala.reflect.internal.FatalError:对象ObjectRef没有成员创建”错误。是什么原因呢?我找到了一些答案,这可能是由不兼容的版本引起的,但是为什么它仅出现在函数中?
非常感谢 库玛洛