3

我们使用后端专有数据库将数据提供给我们网站上的 100 多个动态页面。URL 的格式为 www.example.com/blah?id=1、www.example.com/blah?id=2 等。这些页面可能需要长达 5 秒的时间来加载,因为数据的检索速度非常慢(因为我们要连接的数据库)。

我的目标是编写一个 cron 作业(在 PHP 中),它将“循环”并向我们所有的动态页面发出请求,以便缓存它们(我们为这些页面提供 24 小时缓存)。

我最好的方法是使用嵌入式“wget”命令的 PHP 脚本,其中忽略输出?如果愿意,我可以访问 cURL。编写一个会达到 100 个 URL 以缓存页面的脚本是否存在性能问题?我们当然会在晚上的高峰时段运行它。

感谢您对此的任何指导!

4

1 回答 1

0

我建议使用 multi-cURL 来完成这项工作。这样,您的请求将彼此并行运行。

您可以使用内置的 PHP 函数来做到这一点,但我建议使用包装它们的众多类之一:

https://github.com/jmathai/php-multi-curl

http://curl.haxx.se/libcurl/php/examples/multi.html

于 2012-04-19T18:28:02.213 回答