对此有很多疑问,但这是我的情景:
如果网站是http://apple.foozbar.com/fizz
(我做了那个)并且fizz页面有分页。例如:fizz/page/2?ref=pagination
,fizz/page/3?ref=pagination
,依此类推。并且图片可能包含也可能没有.jpg
,.gif
等扩展名等。也许图片采用以下格式:fozzbar.com/images/3454334/
即使图像没有图像扩展名,我还需要使用wget
命令来完成每个分页并下载放在页面上的每个图像?可以wget
检测网站上发布的内容是否是图片,只检测特定网站位置上的图片?
答案 0 :(得分:0)
基本上,作为bash中的首发:
SELECT s.COMMENT
, p.PROGRAMME
FROM Students AS s
INNER JOIN Posts AS p
ON s.ID = p.ID
您需要从set -eo pipefail
url="http://apple.foozbar.com"
for i in {1..100}; do
mech-dump --images "${url}/fizz/page/$i?ref=pagination" |
xargs -I% wget "$url"%
done
(debian)
mech-dump
实用程序