使用命令行保存大量HTML文件

时间:2011-02-14 22:19:17

标签: shell command-line

我有网站我需要保存大量的网页。页面是增量顺序,index.php?id = 1,index.php?id = 2 ....是否有一个shell脚本(使用mac)我可以运行循环遍历所有这些页面并将它们单独保存到一个目录?

2 个答案:

答案 0 :(得分:2)

在bash中:

for i in {1..100}; do wget http://www.example.com/index.php?id=${i}; done

答案 1 :(得分:1)

#!/bin/bash
url='http://example.com/index.php?='
dir='path/to/dir'
filename=file
extension=ext

for i in {1..100}
do
    wget "$url$i" -O "$dir$filename$i.$ext"
done