当我执行一个scraper时,它使用这个方法加载url:
$html = scraperWiki::scrape("foo.html");
因此每次我向刮刀添加新代码并想要尝试时,它会再次加载html,这需要相当长的时间。
有没有保存$ html所以它只是第一次加载?
答案 0 :(得分:2)
正如Scrapper wiki网站的文档和帮助部分中的FAQ所述:
是的,但所有文件都是临时的。
我建议您在使用PHP时使用函数fopen
/ fwrite
保存文件(HTML或任何位置)。