单个JVM中的多个Spark会话

时间:2017-04-13 11:15:03

标签: apache-spark

我有一个关于在一个JVM中创建多个spark会话的查询。 SPARK-2243表示不支持创建多个Sparkcontexts。 Spark 2.0中的SparkSession也是如此。我还阅读了SparkSession API中的cloneSession方法,该方法允许创建SparkSession的相同副本并在两个会话之间共享基础SparkContext。这是否意味着一个JVM中可以有多个SparkSession?

0 个答案:

没有答案