spark-submit找不到python脚本

时间:2016-06-29 22:30:06

标签: apache-spark

我收到以下错误

16/06/29 15:04:36 ERROR SparkContext: Error initializing SparkContext.
java.io.FileNotFoundException: Added file file:/path/to/app/model_app.py does not exist.

当我运行命令

local:~ noob$ spark-submit --master local[*] --jars /path/to/jar/mysql-connector-java-5.0.8-bin.jar /path/to/app/model_app.py

我的env vars如下

export SPARK_HOME=/Users/noob/spark-1.5.0-bin-hadoop2.6
export PATH=$PATH:/bin:/usr/bin:/usr/local/bin:/sbin:/usr/sbin:/usr/local/sbin:$SPARK_HOME/bin:$SPARK_HOME/jars
export PYTHONPATH=$SPARK_HOME/python/:$SPARK_HOME/python/lib/py4j-0.8.2.1-src.zip:$PYTHONPATH

如果我将python脚本移动到$SPARK_HOME/python并从该文件夹运行spark-submit,那么一切运行正常。

如果我将/path/to/app添加到$PYTHONPATH$PATH - 我仍然会收到找不到文件的错误。

显然有一种更好的方法来运行spark应用程序,而不是将app.py脚本添加到$SPARK_HOME/python文件夹,然后从文件夹中运行它。

我在这里缺少什么?还有什么方法可以按计划运行火花作业(如cron作业)?

0 个答案:

没有答案