spark-submit不能与python文件一起使用

时间:2016-10-06 15:56:29

标签: apache-spark

我的问题如下,当我启动spark-submit时没有任何反应。我写了以下命令行:

spark-submit -v path_to_python_file

我知道我必须指定masterURL和类,但如果我在命令行中指定它们,它总是相同的......没有。当我通过参数时,我成功地在stdout上打印它们,但所有引用spark的代码都没有启动。 (我在窗户下使用火花)

如果有人有线索,那就太棒了

1 个答案:

答案 0 :(得分:0)

以下是spark-submit语法。

$ ./bin/spark-submit --class org.apache.spark.examples.SparkPi \
    --master yarn \
    --deploy-mode cluster \
    --driver-memory 4g \
    --executor-memory 2g \
    --executor-cores 1 \
    --queue thequeue \
    lib/spark-examples*.jar \
    10