使用IPython和Jupyter笔记本运行Spark应用程序

时间:2017-02-21 19:16:03

标签: hadoop pyspark

我尝试使用these instructions安装Jupyter。

我已经在Anaconda下安装了当我尝试运行pyspark(来自部分 使用PySpark启动笔记本)我收到以下错误:

  

$ pyspark Traceback(最近一次调用最后一次):   文件" / opt / cloudera / parcels / Anaconda / bin / jupyter",第4行,in   来自jupyter_core.command import main ImportError:没有名为的模块   jupyter_core.command

1 个答案:

答案 0 :(得分:1)

在特定目录中创建一个脚本,执行将使用pyspark

登录到jupyte

!/斌/庆典

导出PYSPARK_DRIVER_PYTHON = / opt / cloudera / parcels / Anaconda / bin / jupyter 导出PYSPARK_DRIVER_PYTHON_OPTS =" notebook --NotebookApp.open_browser = False --NotebookApp.ip =' *' --NotebookApp.port = 8880" export PATH = / opt / cloudera / parcels / Anaconda / bin:$ PATH pyspark

转到http://host-name:8880/