Find centralized, trusted content and collaborate around the technologies you use most.
Teams
Q&A for work
Connect and share knowledge within a single location that is structured and easy to search.
当我执行刮板时,它使用此方法加载 url:
$html = scraperWiki::scrape("foo.html");
所以每次我向爬虫添加新代码并想尝试它时,它都会再次加载 html,这需要相当长的时间。
无论如何要保存 $html 所以它只在第一次加载?
正如刮板维基网站的文档和帮助部分的常见问题解答所述:
是的,但所有文件都是临时的。
我建议您在使用 PHP 时使用函数fopen/保存文件(HTML 或其他文件) 。fwrite
fopen
fwrite
来源:https ://scraperwiki.com/docs/python/faq/#files