有没有一种方法可以将1.2亿个关系的CSV加载到1000万个节点中,从而避免Neo4j中的笛卡尔积?

时间:2019-06-07 22:29:31

标签: csv neo4j

我正在尝试在1000万个节点(:Homes)之间创建1.2亿个关系。我已经创建了所有(:Homes)节点,并在(:Homes).id上创建了索引。

CREATE INDEX ON :Homes(id)

这是我的代码,用于从本地CSV文件插入数据库。 CSV文件中的每一行都有home1_idhome2_id,我正在尝试创建关系home1 --> home2

USING PERIODIC COMMIT 50000
LOAD CSV WITH HEADERS FROM "file:///relationships.csv" AS row
MATCH (home1:Homes {id: toInteger(row.home1_id)}),(home2:Homes {id: toInteger(row.home2_id)})
CREATE (home1)-[:Recommends]->(home2)

当前运行此程序似乎需要1-2个小时。我可以做些优化吗?

0 个答案:

没有答案