我有几千个网站的列表。我必须遍历它们,并在每次迭代中调用给定url的file_get_contents,使用regex从源中搜索一些信息,并将其写入另一个文件。
好的,问题是 - 它非常非常慢。每次刷新页面时,我将整个过程划分为搜索大约50个URL。但是:
有没有办法加快速度?
答案 0 :(得分:1)
set_time_limit(int $ seconds)可以帮助您增加最长执行时间。 http://php.net/manual/fr/function.set-time-limit.php
我假设你在浏览器中使用你的脚本。也许您应该考虑从命令行执行,因为它对于长执行时脚本更好。