0

当我执行刮板时,它使用此方法加载 url:

$html = scraperWiki::scrape("foo.html");    

所以每次我向爬虫添加新代码并想尝试它时,它都会再次加载 html,这需要相当长的时间。

无论如何要保存 $html 所以它只在第一次加载?

4

1 回答 1

2

正如刮板维基网站的文档和帮助部分的常见问题解答所述:

是的,但所有文件都是临时的。

我建议您在使用 PHP 时使用函数fopen/保存文件(HTML 或其他文件) 。fwrite

来源:https ://scraperwiki.com/docs/python/faq/#files

于 2012-10-15T22:25:54.603 回答