使用火花连接器填充Neo4j

时间:2018-03-29 16:40:29

标签: scala apache-spark neo4j

我使用Spark2与Neo4j 3(安装在一个节点上)与此Spark / Neo4J https://github.com/neo4j-contrib/neo4j-spark-connector

我可以使用我的数据库进行身份验证。

在我阅读的每篇文章中,没有人直接用Spark填充Neo4j。

他们通过UI或其他方式直接请求将数据加载到Neo4J中。

我必须使用spark在Neo4j中摄取数据。

我是否必须映射到每个Dataframe并创建查询并执行它们?

资料来源: https://docs.databricks.com/spark/latest/data-sources/neo4j.html:仅请求...

https://neo4j.com/developer/apache-spark/: org.neo4j.spark.Neo4j(SC).cypher(查询,[PARAMS]),节点(查询,[PARAMS]),RELS(查询,[PARAMS])。

感谢您的帮助。

1 个答案:

答案 0 :(得分:1)

根据neo4j-spark-connector的文档,您应该能够使用mergeEdgeList()函数将数据帧中的数据加载到Neo4j数据库中。 thread讨论了同一件事,可能对您有帮助。