我试图每周下载添加到网站的最新文件。问题是文件url有一些不太复杂的哈希,准确地说是10 ^ 5到10 ^ 6之间的数字。我编写了一个简单的bash脚本来尝试所有组合。这就是为什么我得到错误参数列表的原因太长了。但99%的链接无效,所以可能有办法绕过这个。 这就是我的脚本的样子:
#!/bin/bash
for i in `seq 1 10`;
do
fileno="0$i"
wget --continue --timestamping --directory-prefix=photos/ http://sampleurl.com/file$fileno.{99999..1000000}.jpeg
done
for i in `seq 10 25`;
do
wget --continue --timestamping --directory-prefix=photos/ http://sampleurl.com/file$i.{99999..1000000}.jpeg
done
答案 0 :(得分:0)
您可以使用for
循环:
for i in {99999..1000000}; do
wget ...
done
当然,您可以通过wget&more多个文件来优化它,而不会超出命令行长度限制。