我使用macos。我conda安装了PySpark,conda安装了findspark,然后出现此错误。我在线上阅读了该教程,并安装了Java版本15。为了解决该问题,我还安装了findspark。但是,它不起作用:(
代码如下:
import pyspark as ps
spark = ps.sql.SparkSession.builder \
.master('local[4]') \
.appName('spark-lecture') \
.getOrCreate()
sc = spark.sparkContext
这是错误:
我试图找到一种解决方案并更新bash,但是它不起作用:
导出PYSPARK_PYTHON = / usr / bin / python
导出PYSPARK_DRIVER_PYTHON = / usr / bin / python