如何编写一个bash脚本,从文件中提取所有http://whatever.com/something

时间:2012-07-24 08:02:51

标签: linux bash gnu wget

我正在使用PHP迁移网站,有人将所有链接硬编码到函数调用显示图像('http://whatever.com/images/xyz.jpg')。

我可以轻松地使用文本配合将所有这些转换为http://whatever.com/images/xyz.jpg

但我还需要做的就是将图像放下来,例如wget -i images.txt

但是我需要编写一个bash脚本来编译带有所有链接的images.txt来保存我手动执行此操作因为有很多!

非常感谢您提供的任何帮助。

2 个答案:

答案 0 :(得分:1)

我在that website上找到了一个应该有效的单线程:(用你的来源替换index.php)

wget `cat index.php | grep -P -o 'http:(\.|-|\/|\w)*\.(gif|jpg|png|bmp)'`

答案 1 :(得分:0)

如果您通过wget文件。一个Web服务器,你不会从PHP脚本获得输出吗?这将包含img标记,您可以使用xml_grep或某些此类工具提取这些标记。