Jupyter笔记本电脑问题上的PySpark设置

时间:2020-09-22 23:19:54

标签: python apache-spark pyspark jupyter-notebook

我使用macos。我conda安装了PySpark,conda安装了findspark,然后出现此错误。我在线上阅读了该教程,并安装了Java版本15。为了解决该问题,我还安装了findspark。但是,它不起作用:(

代码如下:

import pyspark as ps
   spark = ps.sql.SparkSession.builder \
   .master('local[4]') \
   .appName('spark-lecture') \
   .getOrCreate()

sc = spark.sparkContext

这是错误:

我试图找到一种解决方案并更新bash,但是它不起作用:

导出PYSPARK_PYTHON = / usr / bin / python

导出PYSPARK_DRIVER_PYTHON = / usr / bin / python

0 个答案:

没有答案