我正在使用Spark在Scala中执行测试,创建一个SparkContext,如下所示:
val conf = new SparkConf().setMaster("local").setAppName("test")
val sc = new SparkContext(conf)
第一次执行后没有错误。但现在我收到此消息(以及测试通知失败):
Only one SparkContext may be running in this JVM (see SPARK-2243).
看起来我需要检查是否有任何正在运行的SparkContext并在启动新的SparkContext之前停止它(我不想允许多个上下文)。 我怎么能这样做?
更新:
我尝试了这个,但是有同样的错误(我正在运行IntellijIdea的测试,并在执行代码之前编写代码):
val conf = new SparkConf().setMaster("local").setAppName("test")
// also tried: .set("spark.driver.allowMultipleContexts", "true")
更新2:
class TestApp extends SparkFunSuite with TestSuiteBase {
// use longer wait time to ensure job completion
override def maxWaitTimeMillis: Int = 20000
System.clearProperty("spark.driver.port")
System.clearProperty("spark.hostPort")
var ssc: StreamingContext = _
val config: SparkConf = new SparkConf().setMaster("local").setAppName("test")
.set("spark.driver.allowMultipleContexts", "true")
val sc: SparkContext = new SparkContext(config)
//...
test("Test1")
{
sc.stop()
}
}
答案 0 :(得分:14)
要停止现有上下文,您可以在给定SparkContext
个实例上使用stop
方法。
import org.apache.spark.{SparkContext, SparkConf}
val conf: SparkConf = ???
val sc: SparkContext = new SparkContext(conf)
...
sc.stop()
要重复使用现有上下文或创建新上下文,您可以使用SparkContex.getOrCreate
方法。
val sc1 = SparkContext.getOrCreate(conf)
...
val sc2 = SparkContext.getOrCreate(conf)
在测试套件中使用时,这两种方法都可以用来实现不同的东西:
stop
- afterAll
方法中的弯曲上下文(请参阅示例MLlibTestSparkContext.afterAll
)
getOrCreate
- 在单个测试用例中获取活动实例(请参阅示例QuantileDiscretizerSuite
)