jupyter 笔记本中的 PYSPARK_PYTHON 设置被忽略

时间:2021-05-15 00:21:49

标签: python pyspark jupyter-notebook

我一直在尝试从 juputer 笔记本(使用 jupyter 实验室)设置 PYSPARK_PYTHON 以使用特定的 conda 环境,但我找不到使其工作的方法,我找到了一些使用示例:

import os

os.environ['PYSPARK_PYTHON'] = "<the path>"

但是没用所以我也试过了:

spark = pyspark.sql.SparkSession.builder \
       .master("yarn-client") \
       .appName(session_name) \
       .config("spark.yarn.appMasterEnv.PYSPARK_PYTHON","<the path>") \
       .enableHiveSupport() \
       .getOrCreate(cluster=cluster)

sc = spark.sparkContext
sqlContext = SQLContext(sc)

但它从不使用指定路径中的指定python版本 ,问题是,是否有可能忽略配置?在 notebook 中还需要做些什么吗?

我正在使用纱线客户端模式,并且我正在使用 jupyter 实验室的企业/公司实例,因此我无法使用导出在 cli 上设置变量,因为服务器由另一个团队为公司广泛管理,所以我需要在 jupyter 启动期间使用与在 cli 中导出不同的方法来执行此操作。

1 个答案:

答案 0 :(得分:0)

为了让它工作,你还应该将这些参数传递给 cli:

export PYSPARK_DRIVER_PYTHON=jupyter
export PYSPARK_DRIVER_PYTHON_OPTS='notebook'

另一种方法是安装 findspark 包:

import findspark
findspark.init()

import pyspark

希望能帮到你: https://www.sicara.ai/blog/2017-05-02-get-started-pyspark-jupyter-notebook-3-minutes