py2neo批量插入即时2k节点的超时

时间:2013-04-10 08:16:13

标签: python neo4j py2neo

我只是尝试对2k节点进行简单的批量插入测试,这是超时的。我确定这不是内存问题,因为我正在使用ec2 xLarge实例进行测试,并且我更改了neo4j java堆和数据存储区内存参数。可能出现什么问题?

3 个答案:

答案 0 :(得分:1)

由于Python处理服务器流格式,因此存在大批量存在的错误。几周后,将在1.5版本中发布此修复程序。

答案 1 :(得分:0)

您可以通过一个批量插入插入300个节点吗?

例如:

nodes_to_insert = []
for n in my_nodes:
    nodes_to_insert.append(n)
    if len(nodes_to_insert) == 300:
        func_insert_by_batch(nodes_to_insert)
        nodes_to_insert = []
if nodes_to_insert:
    func_insert_by_batch(nodes_to_insert)

答案 2 :(得分:0)

嘿,显然有一些与neo4j版本1.8.X相关的错误,这就是我正在使用的。以下链接可提供轻型支持。

https://groups.google.com/forum/?fromgroups=#!topic/neo4j/Nqc9g1FZSD8

编辑:没关系,升级没有帮助。