如何使用spark-submit提交包含查询的查询或.sql文件

时间:2017-10-19 21:40:13

标签: apache-spark apache-spark-sql

我想在spark上运行查询。我把它们放在我的.sql文件

目前我正在运行的方式是:

spark-sql --master yarn /home/myuser/query.sql

但是一旦查询完成执行,它就会进入 spark-sql> .... shell提示符然后作业状态不会更改为Finished Successfully它显示RUNNING becoz the spark-sql> shell处于活动状态,因此我必须明确地执行 CTRL + C 以退出shell。

所以基本上我只想提交一个spark作业,它实际上是一个使用shell脚本文件的查询,而不会进入任何特定于Spark的shell。

我不想在类文件中编写查询,然后构建一个jar然后提交。

1 个答案:

答案 0 :(得分:1)

刚刚发现-f选项可以帮我完成工作。

spark-sql --master yarn -f /home/myuser/query.sql