使用一些基本的网站抓取,我正在尝试准备一个用于价格比较的数据库,这将简化用户的搜索体验。现在,我有几个问题:
我应该使用file_get_contents()
还是curl
获取所需网页的内容?
$link = "http://xyz.com";
$res55 = curl_init($link);
curl_setopt ($res55, CURLOPT_RETURNTRANSFER, 1);
curl_setopt($res55, CURLOPT_FOLLOWLOCATION, true);
$result = curl_exec($res55);
此外,每次我抓取一个网页时,我都会获取很多链接以供下次访问。这可能需要很长时间(如果您抓取 Ebay 等大型网站,则需要几天时间)。在这种情况下,我的 PHP 代码将超时。自动化的方式应该是什么?有没有办法通过在服务器上进行更改来防止 PHP 超时,或者还有其他解决方案吗?