我的原始数据是Terabyte large(2TB到3TB,仍处于处理状态,因此无法确切地知道顶点和边缘有多少),所以我很担心Neo4j是否仍然适合这种情况。我们当前的集群有64核CPU,每个节点128G RAM,而数据不适合本地硬盘,除非图表可以存储在HDFS中。
HA群集是仅在每个群集节点上分发副本,还是Neo4j并行运行查询以获得高性能?如果是后者,每个节点是否都拥有整个图形的副本(让我们假设整个图形真的很大)以减少网络IO开销?
提前致谢!
BR, 托德利奥
答案 0 :(得分:0)
1)应该可以,但你需要将hdfs mount作为常规hdd。
但是从我的观点来看它没有意义,因为那时I / O操作会很慢。如果将它与SSD进行比较。
2)它提高了性能,因为您可以使用多台计算机(从站)进行读取操作。 - http://neo4j.com/docs/stable/ha-how.html