我正在尝试使用Windows中的SparkLauncher触发Pyspark代码。
当我使用
时.setConf(SparkLauncher.DRIVER_MEMORY, "1G")
或任何其他配置,将引发以下错误消息,
--conf "spark.driver.memory' is not recognized as an internal or external command
另外,我需要添加多个依赖项jar。例如,当我使用
时addJar("D:\\jars\\elasticsearch-spark-20_2.11-6.0.0-rc2.jar")
它正在运作。但是当它被多次使用时
.addJar("D:\\jars\\elasticsearch-spark-20_2.11-6.0.0-rc2.jar")
.addJar("D:\\jars\\mongo-spark-connector_2.11-2.2.0.jar")
抛出以下错误
The filename, directory name, or volume label syntax is incorrect.
相同的代码适用于Linux环境。
有人可以帮我解决这个问题吗?