我有一个包含大量网页的文本文件:
http://rest.kegg.jp/link/pathway/7603
http://rest.kegg.jp/link/pathway/5620
…
我的目标是将这些页面上的所有信息下载到单个文本文件中。
以下工作完美但它给了我3000多个文本文件,我怎么能在循环中简单地合并所有输出文件。
while read i; do wget $i; done < urls.txt
非常感谢
答案 0 :(得分:1)
使用-O file
选项,将输出附加到指定的日志文件。
while read i; do wget -O outputFile $i; done < urls.txt
outputFile
也将包含内容
您也可以通过使用while
-i file
循环
wget -O outpuFile -i url.txt