我们使用后端专有数据库将数据提供给我们网站上的 100 多个动态页面。URL 的格式为 www.example.com/blah?id=1、www.example.com/blah?id=2 等。这些页面可能需要长达 5 秒的时间来加载,因为数据的检索速度非常慢(因为我们要连接的数据库)。
我的目标是编写一个 cron 作业(在 PHP 中),它将“循环”并向我们所有的动态页面发出请求,以便缓存它们(我们为这些页面提供 24 小时缓存)。
我最好的方法是使用嵌入式“wget”命令的 PHP 脚本,其中忽略输出?如果愿意,我可以访问 cURL。编写一个会达到 100 个 URL 以缓存页面的脚本是否存在性能问题?我们当然会在晚上的高峰时段运行它。
感谢您对此的任何指导!