第一次运行pyspark - python启动,加载一些库但不是全部,停止有错误

时间:2017-03-02 05:17:44

标签: python apache-spark pyspark

下载包spark-2.1.0-bin-hadoop2.7。在Windows10上运行它。 执行pyspark.cmd,python加载,看起来没问题,直到调用shell.py。它加载前几个库很好(导入atexit,os,platform,py4j)但抛出错误并在导入pyspark时停止。据我所知,所有目录都在所需的路径中,其他env变量设置正确,但我可能是错的。 附上截图。我包括sys.path。 (抱歉在显示路径时忽略错误 - 新手错误。)[在此处输入图像描述] [1]

任何有助于解决此错误并开始在pyspark工作的帮助将非常感谢!谢谢!

{{1}}

0 个答案:

没有答案