我已经如下配置.bash_profile
了。请让我知道我这里是否缺少什么。我要
没有名为pyspark的模块
# added by Anaconda3 5.2.0 installer
export PATH=/Users/pkumar5/anaconda3/bin:$PATH
export JAVA_HOME=/Library/Java/Home
# spark configuration
export SPARK_PATH=~/spark-2.3.2-bin-hadoop2.7
export PYSPARK_DRIVER_PYTHON="jupyter"
export PYSPARK_DRIVER_PYTHON_OPTS="notebook"
alias snotebook='$SPARK_PATH/bin/pyspark --master "local[2]"'
我正在尝试在jupyter笔记本中使用pyspark,但出现错误“没有名为pyspark的模块”。请。帮我解决。
答案 0 :(得分:0)
您可能必须定义正确的$PYTHONPATH
(这是Python寻找模块的地方)。
您可能还需要检查一下:如果您正确安装了pyspark
,可能是在Jupyter笔记本内核正在运行Python 2时为Python 3安装的,因此切换内核可以解决此问题。