-1

我正在为我们的产品使用 php(就像KissmetricsAppanie )开始一个分析平台项目。

所以每天我们的数据库都会更新大量的数据。使用此数据向用户显示报告(单个用户的报告太多了)。

我想知道 MySQL 是否能够处理这么多任务。如果 mysql 无法处理此问题,请为此建议和备用数据库。

4

3 回答 3

1

Mysql可以处理大数据。你可以使用它。确保对表实施正确的索引,以便更快地检索数据。我们已经成功地将 mysql 用于表中的十万条记录。唯一重要的部分是数据库的精心设计。

MySQL是有能力的。替代可以是 postgresql。

于 2013-06-27T07:15:47.150 回答
1

物理数据库大小无关紧要。记录的数量无关紧要。

以我的经验,您将遇到的最大问题不是大小,而是您一次可以处理的查询数量。很可能您将不得不迁移到主/从配置,以便读取查询可以针对从属运行,而写入查询可以针对主控运行。但是,如果您还没有为此做好准备,您可以随时调整您正在运行的查询的索引以加快响应时间。此外,您可以对 Linux 中的网络堆栈和内核进行大量调整,这将有所帮助。

有关更多详细信息,请访问此链接

这个数据也是从这里获取的

于 2013-06-27T07:23:41.067 回答
0

MySQL 不是很适合这个。它有一个非常低效的查询缓存,一旦您编辑查询中使用的任何表中的任何数据,它几乎会被完全刷新。所以当你做很多更新时,就像你描述的那样,查询会严重变慢。也就是说,对于报告,您可能会获得比 Web 页面慢一点的性能,而 Web 页面经常使用 MySQL,所以它可能只是工作。

许多其他数据库,如 Oracle 和 MS SQL Server 都相当可靠,但成本也高得多。

无论如何,明智的做法是让您的应用程序尽可能独立于数据库。确保您制作了一个良好的数据库抽象层,并且不要使用很多(或任何)触发器和存储过程。如果您以后决定需要,这将帮助您切换数据库。

于 2013-06-27T07:16:27.953 回答