获取完整的网站克隆

时间:2011-04-09 13:04:37

标签: html linux unix apache2 web-crawler

有没有办法抓取网站并让它下载每个文件并使其相对?我有一个网站,有很多绝对网址,当我使用wget它只下载index.html页面,并没有得到绝对网址的文件,也没有把它们变成相对链接。这可能吗?

感谢。

3 个答案:

答案 0 :(得分:2)

这不是编程问题......但您可以尝试HTTrack

它的免费和开源,可在Windows和Linux上使用。

答案 1 :(得分:0)

有一个名为DownloadThemAll!的Firefox扩展,可以抓取一个页面。不确定是否可以强制它抓取整个网站。

答案 2 :(得分:-1)

Httrak是一款不错的克隆免费应用程序,无论是.com还是.onion,您都必须更改代理和一些调整,现在还无法完全记住,您可以在YouTube上找到相关信息。但是,如果不是DW网站,则可以使用Httrak下载所有文件。