我需要一些方法来复制和保存网站,以便使用php或linux命令行进行“离线使用”。就像保存浏览器的链接一样,它会重写图像标签并下载它们。
问题是,当我找到问题的解决方案时,我通常会在某处保存链接。随之而来的问题是链接有时会死掉,所以我再也无法访问它们了。
所以我想的是创建一个工具,为我保存页面,在我的服务器上并使用该URL。
我知道如何使用file_get_contents来获取text / html,并且大部分时间都可以使用,但我想,因为我正在创建一个工具,所以它也可以下载图像。我想用浏览器保存并上传它,但我想要一种更简洁的方法来做到这一点。
如果有人知道某些图书馆或某些内容,请帮助我。
谢谢!
答案 0 :(得分:1)
您应该查看cURL库,这可能是您正在寻找的内容。
文档中也指定了basic example。
答案 1 :(得分:1)
如果您的网络服务器上有wget,则可能需要查看它,因为它有一些非常有用的选项。其中一个是选择使用链接翻译制作网站的离线副本,以便网站在本地可用。
wget --domains example.com --recursive --html-extension --page-requisites --convert-links
如果您尝试创建子文件夹的脱机副本(例如example.com/test/
),请添加--no-parent
以防止wget废弃父文件夹。
您可以通过bash脚本自行运行报废过程,也可以通过PHP exec()调用它。
答案 2 :(得分:0)
您可以考虑使用此:http://www.httrack.com/