我对 Postgres 中的流式复制有疑问。
我有一台运行 Postgres 的数据库服务器,它的读取和写入都很繁重(运行批量插入、大型选择、分钟到分钟等)。我正在尝试找到一种策略来处理负载。
我已经看到有关使用流复制到同一网络上的另一台服务器的讨论,以用作读取操作的只读数据库,同时将写入发送到主服务器。
我的问题是:由于主服务器写入繁重并创建大量块,从服务器不会通过复制发生同样的情况吗?复制是否与从 Web 应用程序直接写入连接一样繁重?
此外,在我当前的服务器(20GB RAM,11 核)上,Postgres 使用大约 6GB,这似乎主要是检查点、autovacuum procs,然后是查询。加载大道。从 2.0 到 16.0 甚至更多。
除非我有充分的理由,否则不想在这方面投入时间和金钱。
你有什么建议?我应该在配置和服务器上投入更多时间,还是应该同时做 repl?我的数据库和用户群每个月都在增长,很快就需要一个真正的可扩展设置,以免前端变得非常缓慢并且用户感到沮丧。
PS 这不是典型的 CRUD 应用程序。我的客户连接到他们的 CRM 并拉入成千上万的联系人,这些联系人被批量插入数据库,然后每小时重新同步/更新。