为火花工作设置hbase参数

时间:2018-02-26 22:54:40

标签: shell apache-spark hbase

有没有办法将hbase.rpc.timeout传递给一个通过shell脚本调用的spark作业。我知道我们可以在自己的spark作业中创建HBaseConfiguration时设置hbase.rpc.timeout值。但我想从shell传递值。

类似的东西:

 ${SPARK_SUBMIT} 
    --class mySpark \
    --num-executors ${NUM_EXECUTORS} \
    --master yarn-cluster \
    --deploy-mode cluster \
    --hbase.rpc.timeout 600000 . \
    ${SPARK_JAR} "${START_TIME}" "${END_TIME}" "${OUTPUT_PATH}" 2>&1 | tee -a ${logPath}

1 个答案:

答案 0 :(得分:1)

有两种方法

  1. regrad hbase.rpc.timeout 600000作为应用程序参数。并在SPARK_JAR

  2. 中处理
  3. 喜欢你想要的--conf hbase.rpc.timeout=600000。然后sparkContext.getConf().get("hbase.rpc.timeout")