标签: apache-spark kubernetes
我们正在Kubernetes上运行Spark Cluster。当我们按以下方式提交作业时,驱动程序窗格和执行程序窗格均已启动并正在运行。但是,该应用程序无法按预期运行,我们怀疑是无法找到参数“ py-files”指定的源路径的根本原因。正如我们所看到的,驱动程序窗格中有一个警告MountVolume.Setup for volume“ spark-conf-volume”失败。 你能请教吗?
Form