指定hbase-site.xml以spark-submit

时间:2016-09-14 15:37:56

标签: scala apache-spark hbase

我有一个spark作业(用Scala编写),它从另一台服务器上找到的HBase表中检索数据。为此,我首先创建HBaseContext,如下所示: val hBaseContext:HBaseContext = new HBaseContext(sparkContext, HBaseConfiguration.create())

当我运行spark作业时,我使用spark-submit并指定所需的参数。像这样:

spark-submit  --master=local[*] --executor-memory 4g --executor-cores 2 --num-executors 2 --jars $(for x in `ls -1 ~/spark_libs/*.jar`; do readlink -f $x; done | paste -s | sed -e 's/\t/,/g') --class com.sparksJob.MyMainClass myJarFile.jar "$@"

问题在于它连接到localhost上的zookeeper,但是我希望它连接到另一台服务器上的zookeeper(HBase所在的服务器)。

硬编码此信息有效:

val configuration: Configuration = new Configuration()
configuration.set("hbase.zookeeper.quorum", "10.190.144.8")
configuration.set("hbase.zookeeper.property.clientPort", "2181")
val hBaseContext:HBaseContext = new HBaseContext(sparkContext, HBaseConfiguration.create(configuration))

但是我希望它可以配置。

如何指定spark-submit要使用的hbase-site.xml文件的路径?

1 个答案:

答案 0 :(得分:3)

您可以将hbase-site.xml作为--files选项的参数传递。你的例子将成为:

spark-submit  --master yarn-cluster --files /etc/hbase/conf/hbase-site.xml --executor-memory 4g --executor-cores 2 --num-executors 2 --jars $(for x in `ls -1 ~/spark_libs/*.jar`; do readlink -f $x; done | paste -s | sed -e 's/\t/,/g') --class com.sparksJob.MyMainClass myJarFile.jar "$@"

注意master设置为yarn-cluster。任何其他选项都会使hbase-site.xml被忽略。