让我解释一下我的情况。
我有一个包含 1000 万个页面网址的列表。我希望将这些页面作为原始 html 抓取并保存在数据库中。
截至目前,我正在使用 CURL 来废弃这些页面。每次我访问index.php
时,它都会删除一个页面 url 并将其保存在数据库中。
现在我认为自己使用浏览器不可能访问那index.php
1000 万次。
我可以使用do while loop
. 但我认为完成任务需要很长时间。还有内存问题。
所以有人能指出我正确的方向,使这项任务变得轻松。
我拥有一个带有1GB RAM
WHM/cPanel 的 Linux VPS 服务器。
PS:我考虑过 CRON。但我必须在 cron 中定义时间。即使我使用 cron 每 1 分钟运行一次脚本,我也只能完成1440 urls in 24 hours
. 那么有人可以给我一些想法来atleast 100,000
使用 cron 在一天内完成 url 吗?