从Windows中的SparkLauncher中使用setConf时出现问题

时间:2017-11-30 12:35:36

标签: apache-spark

我正在尝试使用Windows中的SparkLauncher触发Pyspark代码。

当我使用

.setConf(SparkLauncher.DRIVER_MEMORY, "1G")

或任何其他配置,将引发以下错误消息,

--conf "spark.driver.memory' is not recognized as an internal or external command

另外,我需要添加多个依赖项jar。例如,当我使用

addJar("D:\\jars\\elasticsearch-spark-20_2.11-6.0.0-rc2.jar")

它正在运作。但是当它被多次使用时

.addJar("D:\\jars\\elasticsearch-spark-20_2.11-6.0.0-rc2.jar")
.addJar("D:\\jars\\mongo-spark-connector_2.11-2.2.0.jar") 

抛出以下错误

The filename, directory name, or volume label syntax is incorrect.

相同的代码适用于Linux环境。

有人可以帮我解决这个问题吗?

0 个答案:

没有答案