使用wget获取某个Web文件夹并将其保存到本地linux服务器

时间:2017-10-29 20:43:31

标签: linux wget

我做了很多搜索,但无法找到合适的答案。 我只想从http://somewebsite.com/images-and-docs递归地下载所有内容到当前文件夹,同时保留源文件夹的整个结构。我应该使用哪个命令?

1 个答案:

答案 0 :(得分:0)

如果你需要下载整个网站,也许是为了离线观看,wget可以做到 工作 - 例如:

  

$ wget \ --recursive \ --no-clobber \ --page-requisites \   --html-extension \ --convert-links \ --restrict-file-names = windows \ --domains website.org \ --no-parent \ www.website.org/tutorials/html /

此命令下载网站www.website.org/tutorials/html /.

选项包括:

- 递归:下载整个网站。

- domains website.org:不要关注website.org以外的链接。

- 没有父母:不要关注目录tutorials / html /.

之外的链接

- 页面要求:获取构成页面的所有元素(图像,CSS等)。

- html-extension:保存扩展名为.html的文件。

- convert-links:转换链接,使它们在本地脱机工作。

- restrict-file-names = windows:修改文件名,以便它们也适用于Windows。

- no-clobber:不要覆盖任何现有文件(用于下载中断和 续)。