如何在多个Jupyter笔记本上同时启用SparkSession?

时间:2019-07-26 06:48:06

标签: pyspark apache-spark-sql jupyter-notebook

  

无论如何要在多个jupyter笔记本上同时启用SparkSession而不使用stop(),或通过任何其他方式在不同笔记本上同时调用同一SparkSession

import pyspark from pyspark.sql import SparkSession spark = SparkSession.builder.enableHiveSupport().getOrCreate() spark.stop()

0 个答案:

没有答案