使用Scala IDE的Spark应用程序

时间:2018-02-14 09:55:50

标签: scala apache-spark

我试图在我的机器上使用scala运行Spark分类器,但是我收到以下错误:

  

此JVM中只能运行一个SparkContext(请参阅SPARK-2243)。至   忽略此错误,设置spark.driver.allowMultipleContexts = true。

0 个答案:

没有答案