坚持在Jupyter Notebook中找到可行的解决方案来修复pyspark not available错误

时间:2018-08-29 11:20:55

标签: pyspark jupyter-notebook

我了解StackOverflow上有类似的帖子(例如one),但仍然无法通过关注它们来解决我的问题,这是问题所在:

我昨天刚启动并运行了一个jupyterhub,需要能够在执行笔记本时在笔记本中创建Spark Context

from pyspark import SparkContext, SparkConf

提示我出现以下错误:

  错误:ImportError追溯(大多数   ()最近拨打的电话()   ----> 1从pyspark导入SparkContext,SparkConf

     

ImportError:没有名为“ pyspark”的模块

以下是此处的环境设置:

[hadoopuser@hadoop02 .jupyter]$ cat start_jupyterhub.sh
export SPARK_HOME=/opt/cloudera/parcels/SPARK2
export PATH=$SPARK_HOME/bin:$PATH
export PYSPARK_DRIVER_PYTHON=jupyter
export PYSPARK_DRIVER_PYTHON_OPTS='notebook'
sudo jupyterhub

我在这里想念什么?

0 个答案:

没有答案