标签: apache-spark spark-shell
我正在尝试在本地计算机上安装spark。运行spark-shell时出现以下错误
spark
系统找不到指定的路径
我已经更新了所有环境变量,例如JAVA_HOME,SPARK_HOME,PATH变量,但仍然收到错误。
答案 0 :(得分:0)
最后,我更改了JAVA_HOME路径解决了我的问题。
JAVA_HOME中的空格导致了此问题。如果Java路径中有空格,则不会安装Spark。