我正在尝试将大量图片从网站下载到我的Mac上。我可以使用DownloadThemAll,SiteSucker等下载较小的图像,但它们不够深入。所以我不得不跳进我的舒适区稍微偏离的终点站,我的技能有点生疏。
我试过下面的脚本:
curl -O http://www.domain.co.uk/system/images/[1-1000]/original/*.jpg
这个脚本有效,我可以看到终端下载图像文件但是我遇到的问题是文件被* .jpg覆盖而不按顺序生成它们,例如1.jpg,2.jpg,3 .jpg等甚至是原始名称。原来的jpg名称使用随机数字/字母(例如LIC0145_websource.jpg),这就是为什么我试图用* .jpg补充它。我想知道我错过哪一段代码告诉终端下载这些图像。
我也厌倦了调用下面的shell脚本,但遇到了'意外的文件末尾'
#!/bin/bash
for i in `seq 1 1000`;
do
input=http://www.domain.co.uk/system/images/$i/original/*.jpg
output=$i.jpg
# echo $input, $output
curl --output $output --remote-name $input
done
我认为curl选项可能仍然是更好的选择,但如果有人有任何修复或其他解决方案让我知道。
答案 0 :(得分:-1)
您可以使用wget
执行此类操作(我知道这不是curl
):
wget --no-parent --accept=jpg,jpeg,htm,html --mirror http://somedomain/
然后CD到目录并发出
find ./ \( -iname '*.htm' -o -iname '*.html' \) -exec rm {} \;