如何通过neo4j-spark-connector更新节点属性

时间:2019-05-08 11:24:43

标签: apache-spark neo4j

我可以通过neo4j-spark-connector创建一个节点:

    val rows = sc.makeRDD(Seq(Row("Laurence", "Fishburne")))
val schema = StructType(Seq(StructField("name", DataTypes.StringType), StructField("lastname", DataTypes.StringType)))
val df = new SQLContext(sc).createDataFrame(rows, schema)
Neo4jDataFrame.createNodes(sc, df, ("Person",Seq("name","lastname")))

但是,如果以后想更新同一节点的某些属性,该怎么办?

0 个答案:

没有答案