我需要通过 REST API 的 Batch 端点将大量具有它们之间关系的节点插入到 Neo4j 中,大约 5k 记录/秒(仍在增加)。
这将是 24x7 连续插入。每条记录可能只需要创建一个节点,但其他记录可能需要创建两个节点和一个关系。
我可以通过更改程序或修改 Neo4j 的设置来提高插入的性能吗?
到目前为止我的进展:
1.我用Neo4j测试了一段时间,但无法得到我需要的性能
测试服务器盒:24核+32GB RAM
Neo4j 2.0.0-M06 作为独立服务安装。
在同一台服务器上运行我的 Java 应用程序。(Neo4j 和 Java 应用程序将来需要在自己的服务器上运行,因此不能使用嵌入式模式)
REST API 端点:/db/data/batch(目标:/cypher)
使用模式索引、约束、MERGE、CREATE UNIQUE。
2.我的架构:
neo4j-sh (0)$ schema
==> Indexes
==> ON :REPLY(created_at) ONLINE
==> ON :REPLY(ids) ONLINE (for uniqueness constraint)
==> ON :REPOST(created_at) ONLINE
==> ON :REPOST(ids) ONLINE (for uniqueness constraint)
==> ON :Post(userId) ONLINE
==> ON :Post(postId) ONLINE (for uniqueness constraint)
==>
==> Constraints
==> ON (post:Post) ASSERT post.postId IS UNIQUE
==> ON (repost:REPOST) ASSERT repost.ids IS UNIQUE
==> ON (reply:REPLY) ASSERT reply.ids IS UNIQUE
3. 我的密码查询和 JSON 请求
3.1。当一条记录需要创建单个节点时,作业描述如下所示
{"method" : "POST","to" : "/cypher","body" : {"query" : "MERGE (child:Post {postId:1001, userId:901})"}}
3.2. 当一条记录需要创建两个具有一种关系的节点时,作业描述如下所示
{"method" : "POST","to" : "/cypher","body" : {"query" : "MERGE (parent:Post {postId:1002, userId:902}) MERGE (child:Post {postId:1003, userId:903}) CREATE UNIQUE parent-[relationship:REPOST {ids:'1002_1003', created_at:'Wed Nov 06 14:06:56 AST 2013' }]->child"}}
3.3. 我通常每批发送 100 个职位描述(混合 3.1 和 3.2),大约需要 150~250 毫秒才能完成。
4.性能问题
4.1。并发:
/db/data/batch(目标:/cypher)似乎不是线程安全的,使用两个或多个并发线程进行测试,这些线程在几秒~几分钟内导致 Neo4j 服务器停机。
4.2. 带有约束的 MERGE 并不总是有效。
当使用单个查询创建两个节点和一个关系时(上面 3.2. 中提到过),它有时就像一个魅力;但它有时会因 CypherExecutionException 而失败,并说其中一个节点 xxxx 已经存在,标签为 aaaa 和属性 "bbbbb"=[ccccc]; 据我了解, MERGE 不是假设返回任何异常,而是返回节点(如果它已经存在)。
由于异常,整个批次将失败并回滚,这会影响我的插入率。
我在 GitHub 中针对这个问题打开了一个问题,https://github.com/neo4j/neo4j/issues/1428
4.3. 具有约束的 CREATE UNIQUE 并不总是适用于关系创建。
在同一个 github 问题中也提到了这一点。
4.4. 表现:
实际上,在我使用 cypher 批处理之前,我已经尝试使用 get_or_create (/db/data/index/node/Post?uniqueness=get_or_create & /db/data/index/relationship/XXXXX?uniqueness=get_or_create) 进行遗留索引
由于那些遗留索引端点的性质(它们返回索引中数据的位置,而不是实际数据存储中数据的位置),所以我不能在批处理中使用它们(需要在同一批处理中较早创建的引用节点的功能)
我知道我可以启用 auto_indexing,并直接处理数据存储而不是旧索引,但他们从 2.0.0 开始提到,建议使用模式索引而不是旧索引,所以我决定切换到批处理 + 密码 + 模式索引方法。
但是,使用批处理 + 密码,我每秒只能获得大约 200 个工作描述的插入率,如果带有约束的 MERGE 始终有效,它会高得多,比如说大约 600~800/s,但它仍然远低于 5k /秒。我还尝试了没有任何约束的模式索引,它最终在插入率方面的性能更低。