我的环境是带有HDFS HA模式的CDH5.11,当我像
这样的代码时,我在Windows PC中使用SparkLauncher提交应用程序builder.WithOrigins("http://localhost:4200")
它有效,但是当我像
那样编码时setAppResource("hdfs://ip:port/insertInToSolr.jar")
它不起作用。 我已通过修改
将hadoop配置复制到spark docker映像 setAppResource("hdfs://hdfsHA_nameservices/insertInToSolr.jar")
当我使用$SPARK_HOME/kubernetes/dockerfiles/spark/entrypoint.sh
时
运行一个容器,在容器中,我可以使用spark-shell读取hdfs和hive。