如何在关闭计算机的情况下在后台运行带有python的spark应用程序?

时间:2016-02-25 10:59:06

标签: python apache-spark pyspark

添加部署模式时,我总是收到此错误消息:

  

错误:独立群集上的python应用程序当前不支持群集部署模式。

dse spark-submit --master spark://localhost:7077 \
  --deploy-mode cluster --executor-memory 4G --total-executor-cores 2 \
  --driver-memory 1G \
  --packages org.apache.spark:spark-streaming-kafka_2.10:1.4.1 \
   --jars /root/spark-streaming-kafka_2.10-1.4.1.jar \
   /root/pythonspark/com/spark/articles_axes.py weibo_article weibohao

1 个答案:

答案 0 :(得分:0)

例如,您可以使用在运行Spark master的同一台计算机上启动的分离GNU Screen会话来提交您的应用程序:

screen -dmS spark dse spark-submit --master spark://localhost:7077 \
  --executor-memory 4G --total-executor-cores 2 \
  ...