例如,我在集合中有这样的文件:
{
"key": "key1",
"time": 1000,
"values": [] // this one is optional
}
我需要通过修改或删除values
列以及其中key
&time
是过滤器来更新来自 CSV 文件的集合。
到目前为止我已经尝试过:
- DeleteMany(带有
or(and(key: key1), and(time: time2))
, ... 276k 更多or
参数)+ InsertMany 带有 276k 文档 => ~ 90 秒 filter: and(key: key1, time: time2)
使用 ( ) => ~ 40 秒批量替换一个- 将大批量拆分为几个较小的批次(7500 似乎是性能最高的),但这一个在数据库操作方面不是原子的 => ~ 35 秒
笔记:
- 所有测试都是
bulk.ordered = false
为了提高性能。 - 有唯一索引
key: 1, time: -1
有没有可能优化这种请求?我知道 Mongo 可以爆发到 ~80k 插入/秒,但是替换呢?