MongoDB 会处理几 TB 的数据吗?我读过帖子说 Mongo 在小于 1TB 的数据方面表现良好,对于更大的数据集,我应该使用 HBase。真的吗?
我需要存储并稍后处理几 TB 的文本数据。
您可能会感兴趣:
您可以在 10gen 的网站上找到一些额外的案例研究,尽管并非所有案例都提供数据集大小的具体数字。在 Stack Overflow 上也有一些关于这个问题的较早讨论(有关 2010 年 3 月拥有 12TB 数据的用户的简介,请参见此处),您可能会发现更多案例研究分散在Speaker Deck或Slideshare上的演示文稿中。简而言之,MongoDB 当然可以处理这么多的数据(今天人们正在使用它),但是您需要注意最佳实践,这是现有演示文稿可以派上用场的地方。
MongoDB
数以万计的组织使用 MongoDB 大规模构建高性能系统。超过三分之一的财富 100 强企业以及许多最成功和最具创新性的网络公司都依赖 MongoDB。它们已经从单一服务器部署发展为拥有超过 1,000 个节点的集群,每秒对超过 1000 亿个文档和 PB 级数据进行数百万次操作。
可扩展性不仅仅是速度。这大约是 3 个不同的指标,它们经常一起工作:
集群规模。将数据库分布在 100 多个节点上,通常位于多个数据中心
表现量表。维持每秒 100,000 次以上的数据库读取和写入,同时保持严格的延迟 SLA
数据规模。在数据库中存储超过 10 亿个文档有许多 MongoDB 用户正在突破可伸缩性极限的例子。这里有一些,围绕每个缩放维度进行组织。
您可以在本文中找到有关 MongoDB:将在线大数据引入商业智能和分析的参考资料