我有一个存储在文本文件urls.txt(html pages)
中的url列表http://www.somesite.com/
http://www.somesite.com/
http://www.othersite.com/
我用的时候 'wget -i urls.txt'
下载所有html页面。
我的要求: *我不想保存下载的html页面,因为我的网址列表接近200+ *我想用网址列表来强调测试服务器
是否还有其他选项,如curl可以达到我的目的。
答案 0 :(得分:0)
我能够使用
解决这个问题wget http://www.example.com -O /dev/null