使用php(包括图像)在本地保存网址的内容

时间:2012-12-16 20:07:37

标签: php linux curl

我需要一些方法来复制和保存网站,以便使用php或linux命令行进行“离线使用”。就像保存浏览器的链接一样,它会重写图像标签并下载它们。

问题是,当我找到问题的解决方案时,我通常会在某处保存链接。随之而来的问题是链接有时会死掉,所以我再也无法访问它们了。

所以我想的是创建一个工具,为我保存页面,在我的服务器上并使用该URL。

我知道如何使用file_get_contents来获取text / html,并且大部分时间都可以使用,但我想,因为我正在创建一个工具,所以它也可以下载图像。我想用浏览器保存并上传它,但我想要一种更简洁的方法来做到这一点。

如果有人知道某些图书馆或某些内容,请帮助我。

谢谢!

3 个答案:

答案 0 :(得分:1)

您应该查看cURL库,这可能是您正在寻找的内容。

文档中也指定了basic example

答案 1 :(得分:1)

如果您的网络服务器上有wget,则可能需要查看它,因为它有一些非常有用的选项。其中一个是选择使用链接翻译制作网站的离线副本,以便网站在本地可用。

wget --domains example.com --recursive --html-extension --page-requisites --convert-links

如果您尝试创建子文件夹的脱机副本(例如example.com/test/),请添加--no-parent以防止wget废弃父文件夹。

您可以通过bash脚本自行运行报废过程,也可以通过PHP exec()调用它。

答案 2 :(得分:0)

您可以考虑使用此:http://www.httrack.com/