Wget Macro下载多个URL?

时间:2016-12-20 01:21:03

标签: linux download macros wget

(注意:您需要至少10个声望才能发布超过2个链接。我必须删除http和网址,但我希望它仍然可以理解!)

您好!

我正在尝试将整个网站用于个人教育用途。这是URL的样子:

example.com/download.php?id=1

我想将所有页面从1下载到最后一页4952

所以第一个网址是:

example.com/download.php?id=1

,第二个是

example.com/download.php?id=4952

从1 - 4952下载页面的最有效方法是什么?

我当前的命令是(它完全正常,我希望它的确切方式):

wget -P /home/user/wget -S -nd --reject=.rar http://example.com/download.php?id=1

注意:网站有一个巨魔,如果您尝试运行以下命令:

 wget -P /home/user/wget -S -nd --reject=.rar --recursive --no-clobber --domains=example.com --no-parent http://example.com/download.php

它会下载一个1000GB的.rar文件,只是为了哄你!!!

我是linux新手,请你好!只是想学习!

谢谢!

1 个答案:

答案 0 :(得分:1)

Notepadd ++ =

您的网址+列编辑器=所有网址的大量列表

Wget -I your_file_with_all_urls =成功!

感谢Barmar