我做了很多搜索,但无法找到合适的答案。 我只想从http://somewebsite.com/images-and-docs递归地下载所有内容到当前文件夹,同时保留源文件夹的整个结构。我应该使用哪个命令?
答案 0 :(得分:0)
如果你需要下载整个网站,也许是为了离线观看,wget可以做到 工作 - 例如:
$ wget \ --recursive \ --no-clobber \ --page-requisites \ --html-extension \ --convert-links \ --restrict-file-names = windows \ --domains website.org \ --no-parent \ www.website.org/tutorials/html /
此命令下载网站www.website.org/tutorials/html /.
选项包括:
- 递归:下载整个网站。
- domains website.org:不要关注website.org以外的链接。
- 没有父母:不要关注目录tutorials / html /.
之外的链接- 页面要求:获取构成页面的所有元素(图像,CSS等)。
- html-extension:保存扩展名为.html的文件。
- convert-links:转换链接,使它们在本地脱机工作。
- restrict-file-names = windows:修改文件名,以便它们也适用于Windows。
- no-clobber:不要覆盖任何现有文件(用于下载中断和 续)。