无法找到Spark jars目录。您需要在运行此程序之前构建Spark

时间:2017-11-15 19:25:49

标签: python windows apache-spark pyspark anaconda

我正在尝试在Windows 10上安装spark,但是当我尝试运行pyspark时出错。

  

无法找到Spark jars目录。你需要在运行这个程序之前构建Spark。

我已按照Here指示的步骤操作,直到第4步。

我去了Anaconda的Scripts和网站包。在Scripts中有pyspark spark-shell等,但是site-packages中的pyspark文件夹既没有jars文件夹,也没有自己的bin文件夹。

罐子在哪里?

1 个答案:

答案 0 :(得分:0)

此错误的原因之一是在设置路径Spark_home路径时,可能包含诸如“ C:/ Users // apache spark / bin”之类的空格。

只需删除空格或更改到另一个目录。