如何在k8s的Spark中使用HDFS HA?

时间:2019-10-21 07:59:38

标签: apache-spark kubernetes

我的环境是带有HDFS HA模式的CDH5.11,当我像

这样的代码时,我在Windows PC中使用SparkLauncher提交应用程序
builder.WithOrigins("http://localhost:4200")

它有效,但是当我像

那样编码时
setAppResource("hdfs://ip:port/insertInToSolr.jar")

它不起作用。 我已通过修改

将hadoop配置复制到spark docker映像

setAppResource("hdfs://hdfsHA_nameservices/insertInToSolr.jar") 当我使用$SPARK_HOME/kubernetes/dockerfiles/spark/entrypoint.sh时 运行一个容器,在容器中,我可以使用spark-shell读取hd​​fs和hive。

0 个答案:

没有答案