无法启动Spark

时间:2019-01-21 18:25:02

标签: apache-spark pyspark

我在Mac上安装了Spark 2.4。

当我尝试使用 spark 从命令行启动时,出现此错误:

Traceback (most recent call last):
File "/Applications/anaconda3/bin/spark", line 2, in <module>
 from spark import spark_admin
File "/Applications/anaconda3/lib/python3.6/site-packages/spark/spark_admin.py", line 49
 os.chmod(join(proj_dir,'etc','cgiserver.py'),0755)
                                                ^
SyntaxError: invalid token

使用 pyspark 启动时,我打开了Jupyter窗口。

我的.bash_profile是:

export SPARK_HOME=/usr/local/spark-2.4.0-bin-hadoop2.7/
export PATH="$SPARK_HOME/bin:$PATH"
export PYTHONPATH="$SPARK_HOME/python:$PYTHONPATH"
...
HADOOP_HOME=/usr/local/hadoop-2.9.2/

此错误是什么,怎么解决?

1 个答案:

答案 0 :(得分:0)

您尚未正确设置{ "editor.defaultFormatter": "octref.vetur", "vetur.format.defaultFormatter.html": "prettier", "vetur.format.defaultFormatter.css": "prettier", "vetur.format.defaultFormatter.postcss": "prettier", "vetur.format.defaultFormatter.scss": "prettier", "vetur.format.defaultFormatter.less": "prettier", "vetur.format.defaultFormatter.stylus": "stylus-supremacy", "vetur.format.defaultFormatter.js": "prettier", "vetur.format.defaultFormatter.ts": "prettier" } 文件中的配置,您错过了用单引号引起来的路径。另外,如果要独立设置~/.bashrc,则无需设置Spark

在我的设置中参考以下几行:

HADOOP_HOME

将这些行添加到export SPARK_HOME='/home/kr_user/tools/spark/' export PATH=${SPARK_HOME}/bin:$PATH 文件中,并使用以下命令刷新环境:

~/.bashrc

这对您有用。