我一直在尝试从 juputer 笔记本(使用 jupyter 实验室)设置 PYSPARK_PYTHON 以使用特定的 conda 环境,但我找不到使其工作的方法,我找到了一些使用示例:
import os
os.environ['PYSPARK_PYTHON'] = "<the path>"
但是没用所以我也试过了:
spark = pyspark.sql.SparkSession.builder \
.master("yarn-client") \
.appName(session_name) \
.config("spark.yarn.appMasterEnv.PYSPARK_PYTHON","<the path>") \
.enableHiveSupport() \
.getOrCreate(cluster=cluster)
sc = spark.sparkContext
sqlContext = SQLContext(sc)
但它从不使用指定路径中的指定python版本 ,问题是,是否有可能忽略配置?在 notebook 中还需要做些什么吗?
我正在使用纱线客户端模式,并且我正在使用 jupyter 实验室的企业/公司实例,因此我无法使用导出在 cli 上设置变量,因为服务器由另一个团队为公司广泛管理,所以我需要在 jupyter 启动期间使用与在 cli 中导出不同的方法来执行此操作。
答案 0 :(得分:0)
为了让它工作,你还应该将这些参数传递给 cli:
export PYSPARK_DRIVER_PYTHON=jupyter
export PYSPARK_DRIVER_PYTHON_OPTS='notebook'
另一种方法是安装 findspark 包:
import findspark
findspark.init()
import pyspark
希望能帮到你: https://www.sicara.ai/blog/2017-05-02-get-started-pyspark-jupyter-notebook-3-minutes