标签: neo4j data-modeling cypher batch-insert
我有大量数据,想在Neo4j中创建一个代表这些数据的模型。
这将是 300万个节点和超过 30亿个关系。使用批量插入器构建它需要很长时间才能导入数据,然后创建节点和关系。
问题是:我可以将大型模型拆分为两个单独的模型,然后运行一个同时访问这两个模型的密码查询吗?如果是,我该怎么做?
答案 0 :(得分:2)
我担心Neo4j本身不支持跨数据库的多个实例分割图形(尚未)。
然而,3M节点和3B边缘并不是一个庞大的数据量。 “太长了”究竟是什么意思?