1

我们正在尝试从 mysql 迁移到 mongodb。mysql 结构是 id_src int id_dest int 唯一键:id_src,id_dest

它们在mysql中大约有2亿行

数据示例:{id_src,id_dest} {1,2} {1,3} {1,10} {2,3} {2,10} {4,3}

我们需要检索数据:{id_dest,count} {3,3} {10,2} {2,1}

我开始在mongodb中重现mysql的结构。插入性能非常好(非常好):插入 2 亿行大约需要 1 小时。

但我需要使用 map reduce 来获取分组。地图减少大约需要 1 小时。

所以我尝试创建另一个 mongodb 结构:{id_dest,{id_src1,id_src2}}

每个文档可以有十万个 id_src。

这是我的 insert.php 代码

$res=mysql_unbuffered_query("select * from ids limit 10000100");  
while ($tab=mysql_fetch_array($res)) {  
$collection->update(array('_id'=>(int)$tab['id_dest']),array('$push' => array('src'=>(int)$tab['id_src'])),array("upsert" => true));  
}  

但在那种情况下,性能非常糟糕,每秒只有很少的更新。

难道我做错了什么 ?

4

1 回答 1

6

首先,Map/Reduce 不是为实时分析而设计的。此外,MongoDB 目前仅限于一个用于 M/R 的内核,这将进一步减慢速度。

因此,如果您要使用 M/R 获取数据,它不会是“实时的”,它将每 X 分钟(或几小时)更新一次。

这里有两种有效的方法:

  1. 增量 M/R
  2. 实时计数器

选项 #1:增量 M/R

对于此选项,您对所有数据运行一次 M/R。然后,继续前进,您只对修改后的数据运行 M/R。如果你现在有 200M 个文档,那么接下来可能有 210M 个文档(这意味着 M/R 变得更慢)。但是,如果您只需要运行新的/更改的文档,那么它应该花费不到 1 小时。

在此处查看reduce文档中的输出选项。

同样的前提是您只 M/R 相关数据和系统“重新减少”现有数据。通过这种方式,您可以获得“增量”M/R。

选项 #2:实时计数器

在这种方法中,您有两个集合:一个用于您的数据,另一个用于“摘要”的结果。当您插入数据时,您还会对摘要进行增量。

假设您有以下数据:

Main Collection
{src: 1, dest: 2}
{src: 1, dest: 3}
{src: 1, dest: 10}
{src: 2, dest: 3}
{src: 2, dest: 10}
{src: 4, dest: 3}

Summary Collection
{dest: 3, count: 3}
{dest: 10, count: 2}
{dest: 2, count: 1}

您收到一条新数据{src: 5, dest: 2}。你会做两个更新:

db.main.insert({src: 5, dest: 2});
db.summary.update({dest: 2}, { $inc : { count: 1 } }, true); // upsert true

这是您的新数据:

Main Collection
{src: 1, dest: 2}
...
{src: 4, dest: 3}
{src: 5, dest: 2}

Summary Collection
{dest: 3, count: 3}
{dest: 10, count: 2}
{dest: 2, count: 2}

您会注意到我们已经更新了我们的摘要:{dest: 2, count: 2}.

显然,这里有取舍。您需要更多更新/插入 (2x),但您会获得实时计数器。现在,MongoDB 中没有事务,因此您必须决定确保两个更新都发生的策略。有很多方法可以做到这一点,我在这里无法介绍(请参阅消息队列了解一种方法)。

于 2011-07-26T20:17:48.403 回答