MongoDB Spark Connector无法在Windows上运行

时间:2017-01-19 07:18:39

标签: mongodb apache-spark

我在Windows上使用MongoDB-Spark Connector。我在C:/ Spark中的C驱动器中安装了Spark installend。 我在c盘中使用以下命令克隆了MongoDB Spark连接器 -

git clone https://github.com/mongodb/mongo-spark.git

和mongo-spark文件夹在C盘中创建。

当我在Spark bin文件夹中运行以下命令时 -

C:\spark\bin>spark-shell --conf "spark.mongodb.input.uri=mongodb://127.0.0.1/test.CoOrder?readPreference=primaryPreferred" --conf "spark.mongodb.output.uri=mongodb://127.0.0.1/test.CoOrder1" --packages org.mongodb.spark:mongo-spark-connector_2.11:1.1.0

有瑕疵 -

  

' C:\火花\ BIN \火花shell2.cmd" --conf" spark.mongodb.input.uri'是   不被认可为内部或外部命令,可操作程序或   批处理文件。

如何将Spark与MongoDB连接? 这里我的火花没有连接到mongo-spark文件夹。如何将spark与mongo-spark文件夹链接?

由于

1 个答案:

答案 0 :(得分:0)

该错误通常与Windows上Apache Spark的不完整安装有关。确保您可以先在其上执行spark-shell命令以获取Spark Scala shell。

请注意,您不需要克隆mongo-spark git存储库以使用MongoDB Spark Connector,spark-shell选项--packages org.mongodb.spark:mongo-spark-connector_将从maven central下载必要的jar。

另见MongoDB Spark Connector