Neo4j Spark连接器错误:在包org中找不到import.org.neo4j.spark._ object neo4j

时间:2017-10-18 21:13:11

标签: scala apache-spark neo4j

我的scala代码在spark中连接到我的mac上的Neo4j。我想在我的Windows机器上测试它,但似乎无法让它运行,我一直收到错误:

Spark context Web UI available at http://192.168.43.4:4040
Spark context available as 'sc' (master = local[*], app id = local-1508360735468).
Spark session available as 'spark'.
Loading neo4jspark.scala...
<console>:23: error: object neo4j is not a member of package org
       import org.neo4j.spark._
              ^

其中包含后续错误:

changeScoreList: java.util.List[Double] = []
<console>:87: error: not found: value neo
                         val initialDf2 = neo.cypher(noBbox).partitions(5).batch(10000).loadDataFrame
                                          ^
<console>:120: error: not found: value neo

不确定我做错了什么,我正在执行它:

spark-shell --conf spark.neo4j.bolt.password=TestNeo4j --packages neo4j-contrib:neo4j-spark-connector:2.0.0-M2,graphframes:graphframes:0.2.0-spark2.0-s_2.11 -i neo4jspark.scala

说它找到了所有的依赖关系,但代码在使用neo时抛出了错误。不知道还有什么可以尝试?不知道为什么这不能在我的Windows框上工作,并且我的mac。 Spark版本2.2相同,neo4j启动并运行相同版本,scala也是,甚至java(保存一些小修订版本差异)

1 个答案:

答案 0 :(得分:1)

这是一个已知的issue(有一个相关的here),fix是Spark 2.2.1版本的一部分。