wget-下载每个网页包含的链接

时间:2018-07-27 21:26:47

标签: linux shell wget

我正在研究wget和httrack。我遇到以下困难:

我有一个网页列表,我正在尝试下载每个网页包含的链接

例如,我有下面的网页列表,我想下载其中每个链接的内容:

http://www.un.org/en/sc/documents/resolutions/2010.shtml http://www.un.org/en/sc/documents/resolutions/2011.shtml

我已经使用了命令:

wget -r -c -nd -l2 -n --user-agent="Mozilla/5.0 (X11; U; Linux i686; en-US; rv:1.9.0.3) Gecko/2008092416 Firefox/3.0.3" -erobots=off --no-check-certificate   -P .~/Documentos/teste -i un.txt

我可以使用wget下载网页链接吗?输入指示的网页,下载此网页中链接的内容...还是仅使用硒之类的工具?

最诚挚的问候!

0 个答案:

没有答案