我正在尝试在Windows 10上安装spark,但是当我尝试运行pyspark时出错。
无法找到Spark jars目录。你需要在运行这个程序之前构建Spark。
我已按照Here指示的步骤操作,直到第4步。
我去了Anaconda的Scripts和网站包。在Scripts中有pyspark spark-shell等,但是site-packages中的pyspark文件夹既没有jars文件夹,也没有自己的bin文件夹。
罐子在哪里?
答案 0 :(得分:0)
此错误的原因之一是在设置路径Spark_home路径时,可能包含诸如“ C:/ Users // apache spark / bin”之类的空格。
只需删除空格或更改到另一个目录。