我们在 MongoDB 中有一组数据,我们正在减少地图(两次),我们现在将使用 Mongo 的地图减少,但我正在考虑如何在未来扩展和提高性能,并且正在考虑 Hadoop。
我读到的关于 Hadoop 的大部分内容都在谈论大数据,TB 级的东西,当我们要处理兆字节,10 到 100 万条记录时。(虽然其中可能有许多同时运行,因此虽然单个任务很小,但总体可能很大)。
我们真的想从小数据中获得疯狂的性能,而不是让大数据成为可能。即在 MongoDB 中获得需要 10 秒的 map reduce 结果,而在 Hadoop 中需要几秒或亚秒。
这可能吗?
Hadoop 适合这个吗?
如果不是,还有哪些其他技术可以使这成为可能?
这是所需的确切问题的详细信息以及我迄今为止的解决方案,可以在以下问题中找到:Linear funnel from a collection of events with MongoDB aggregation, is it possible?