我正在研究wget和httrack。我遇到以下困难:
我有一个网页列表,我正在尝试下载每个网页包含的链接
例如,我有下面的网页列表,我想下载其中每个链接的内容:
http://www.un.org/en/sc/documents/resolutions/2010.shtml http://www.un.org/en/sc/documents/resolutions/2011.shtml
我已经使用了命令:
wget -r -c -nd -l2 -n --user-agent="Mozilla/5.0 (X11; U; Linux i686; en-US; rv:1.9.0.3) Gecko/2008092416 Firefox/3.0.3" -erobots=off --no-check-certificate -P .~/Documentos/teste -i un.txt
我可以使用wget下载网页链接吗?输入指示的网页,下载此网页中链接的内容...还是仅使用硒之类的工具?
最诚挚的问候!