我的scala代码在spark中连接到我的mac上的Neo4j。我想在我的Windows机器上测试它,但似乎无法让它运行,我一直收到错误:
Spark context Web UI available at http://192.168.43.4:4040
Spark context available as 'sc' (master = local[*], app id = local-1508360735468).
Spark session available as 'spark'.
Loading neo4jspark.scala...
<console>:23: error: object neo4j is not a member of package org
import org.neo4j.spark._
^
其中包含后续错误:
changeScoreList: java.util.List[Double] = []
<console>:87: error: not found: value neo
val initialDf2 = neo.cypher(noBbox).partitions(5).batch(10000).loadDataFrame
^
<console>:120: error: not found: value neo
不确定我做错了什么,我正在执行它:
spark-shell --conf spark.neo4j.bolt.password=TestNeo4j --packages neo4j-contrib:neo4j-spark-connector:2.0.0-M2,graphframes:graphframes:0.2.0-spark2.0-s_2.11 -i neo4jspark.scala
说它找到了所有的依赖关系,但代码在使用neo时抛出了错误。不知道还有什么可以尝试?不知道为什么这不能在我的Windows框上工作,并且我的mac。 Spark版本2.2相同,neo4j启动并运行相同版本,scala也是,甚至java(保存一些小修订版本差异)