下载包spark-2.1.0-bin-hadoop2.7。在Windows10上运行它。 执行pyspark.cmd,python加载,看起来没问题,直到调用shell.py。它加载前几个库很好(导入atexit,os,platform,py4j)但抛出错误并在导入pyspark时停止。据我所知,所有目录都在所需的路径中,其他env变量设置正确,但我可能是错的。 附上截图。我包括sys.path。 (抱歉在显示路径时忽略错误 - 新手错误。)[在此处输入图像描述] [1]
任何有助于解决此错误并开始在pyspark工作的帮助将非常感谢!谢谢!
{{1}}