使用linux从网站下载批处理文件

时间:2013-03-16 10:06:57

标签: linux batch-file download

我想从网站下载一些文件(大约1000-2000个zip文件)。 我可以坐下来,一个接一个地添加每个文件。请给我一个程序或脚本或任何方法,以便我可以自动下载。

我正在谈论的网站有下载链接

  

sitename.com/sometetx/date/12345/folder/12345_zip.zip

日期可以照顾。主要关注的是文件夹前后的数字12345,它们都同时变化。 e.g。

  

sitename.com/sometetx/date/23456/folder/23456_zip.zip   sitename.com/sometetx/date/54321/folder/54321_zip.zip

我尝试使用curl

  

sitename.com/sometetx/date/ [12345-54321] /文件夹/ [12345-54321] _zip.zip

但它对下载的大部分组合起作用,即保持原样12345并扫描12345到54321,增量离开12345 + 1然后从[12345-54321]重复扫描。

也试过bash wget 这里我在两个地方有一个变量,当使用循环时,程序忽略右边的12345和“_”。 请帮助我,我对linux或编程不太了解,谢谢

1 个答案:

答案 0 :(得分:0)

为了让_旁边的循环变量不被shell忽略,请将它放在引号中,如下所示:

$ for ((i=10000; i < 99999; i++)); do \ 
    wget sitename.com/sometetx/date/$i/folder/"$i"_zip.zip; done