我无法在此处重现该错误,但是在Databricks上运行SparkR代码时遇到错误。我正在尝试的就是这样。
sparkdaraframe <- sparkdaraframe %>%
SparkR::mutate(var1 = ifelse(sparkdaraframe$var2 > sparkdaraframe$var3, 1, 0))
只有很少的数据帧可以正常工作,而其他数据帧则会引发错误:
Error in ns[[i]] : subscript out of bounds
我尝试重新启动集群并清除了状态和结果,但是没有运气。
我应该如何使其始终保持工作状态。