0

我只是想对 2k 个节点做一个简单的批量插入测试,这已经超时了。我确定这不是内存问题,因为我正在使用 ec2 xLarge 实例进行测试,并且我更改了 neo4j java 堆和数据存储内存参数。可能出了什么问题?

4

3 回答 3

1

由于 Python 对服务器流格式的处理,存在大批量的现有错误。几周后将在 1.5 版中对此进行修复。

于 2013-04-10T13:37:39.157 回答
0

嘿,显然有一些与 neo4j 版本 1.8.X 相关的错误,这就是我正在使用的。下面的链接可能会提供轻微的支持。

https://groups.google.com/forum/?fromgroups=#!topic/neo4j/Nqc9g1FZSD8

编辑:没关系,升级没有帮助。

于 2013-04-10T09:13:15.683 回答
0

您可以通过一批插入插入 300 个节点吗?

例如:

nodes_to_insert = []
for n in my_nodes:
    nodes_to_insert.append(n)
    if len(nodes_to_insert) == 300:
        func_insert_by_batch(nodes_to_insert)
        nodes_to_insert = []
if nodes_to_insert:
    func_insert_by_batch(nodes_to_insert)
于 2013-04-10T09:03:50.890 回答