我目前正在使用.net 中的螺栓驱动器在我的图表中导入一些关系。我想尝试load csv
这种情况的命令(源在 csv 中)并比较性能,但查询仅应用于第一行。我用 a 进行了测试,skip n limit 1
并且只设法让它逐行运行。
因此,我想知道加载 csv 循环中的“复杂”查询是否有任何限制?
这是查询:
using periodic commit
LOAD CSV FROM "file:///path/to/my/file.csv" AS row fieldterminator ';'
with row
MATCH (n:Source {id:row[0]})
MATCH p=(o:Target {num:row[1]})-[:Version*..]->()
WHERE row[2] in labels(o)
WITH n, p ORDER BY LENGTH(p) DESC LIMIT 1
WITH n, last(nodes(p)) as m
MERGE (n)-[r:Rel]->(m);
谢谢!
编辑 :
我的 csv 只是遵循此模式的常规 3 列 CSV:
IDTEXT0000000001;V150;LabelOne
IDTEXT0000000002;M245;LabelOne
IDTEXT0000000003;D666;Labeltwo
etc.
逐行我的意思是我首先用limit 50
after进行测试with row
,因为它不起作用(没有添加),然后我做了limit 1
, skip 1 limit 1
, `skip 2 limit 2 等。“逐行”方法有效,但你会承认这不是你真正想做的。
最终代码:
using periodic commit
LOAD CSV FROM "file:///path/to/my/file.csv" AS row fieldterminator ';'
with row
MATCH (n:Source {id:row[0]})
MATCH p=(o:Target {num:row[1]})-[:Version*..]->()
WHERE row[2] in labels(o)
WITH n, p ORDER BY LENGTH(p) DESC
WITH n, last(nodes(collect(p)[0])) as m
MERGE (n)-[r:Rel]->(m);
并且使用 apoc(稍微快一点):
using periodic commit
LOAD CSV FROM "file:///path/to/my/file.csv" AS row fieldterminator ';'
with row
MATCH (n:Source {id:row[0]})
call apoc.cypher.run('MATCH p=(o:Article {num:$num})-[:VersionChristopher*0..]->() WHERE $label in labels(o) WITH p ORDER BY LENGTH(p) DESC LIMIT 1 return last(nodes(p)) as m', {num:row[1], label:row[2]})
yield value
with n, value.m as m
MERGE (n)-[r:Rel]->(m);
但是使用 bolt 可以让我在没有标签测试的情况下构建查询,并且仍然比使用 load csv 快 3 到 4 倍。感谢您的帮助:)