我正在使用curl
从ftp站点下载几个大型文件集,并将它们写入具有相同名称的新文件。我想使用这样的命令:
curl ftp/site/filename > filename
以下是来自ftp网站的一些示例文件:
File:Compara.6_primates_EPO.chr10_1.emf.gz 30909 KB 8/3/10 12:00:00 AM
File:Compara.6_primates_EPO.chr10_2.emf.gz 13110 KB 8/3/10 12:00:00 AM
File:Compara.6_primates_EPO.chr10_3.emf.gz 24948 KB 8/3/10 12:00:00 AM
File:Compara.6_primates_EPO.chr10_4.emf.gz 45155 KB 8/3/10 12:00:00 AM
File:Compara.6_primates_EPO.chr10_5.emf.gz 17236 KB 8/3/10 12:00:00 AM
File:Compara.6_primates_EPO.chr11_1.emf.gz 37593 KB 8/3/10 12:00:00 AM
...
500 files later
....
File:Compara.6_primates_EPO.other_9.emf.gz 8980 KB 8/3/10 12:00:00 AM
这些文件很多,我会经历很多长篇清单。我可以使用一些数字模式
for x in {1..N}; do curl ftp/site/file${x} > file${x}
但也有不可预测的模式,例如二级数字索引因不同文件而异。这里是{1..5}
:
Compara.6_primates_EPO.chr10_{1..5}
并且在下一个文件中我可能会有类似
的内容 Compara.6_primates_EPO.chr11_{1..7}
然后有一些奇怪的球像最后一个:
Compara.6_primates_EPO.other_{1..?}
我知道我不能使用简单的globbing,如:
curl ftp/site/file* > file*
- 这只是给了我ambiguous redirect
。我想知道是否有人知道一个聪明的解决方案,我可以将文件名全局,保存为字符串,然后将输出写入文件名,而不是太花哨...我知道我可能去写一个python脚本来更系统地做到这一点,但似乎可能有一个快速的bash
解决方案,我没有想到......
答案 0 :(得分:0)
毕竟这个问题的答案很简单:
curl -O ftp/path/to/site/*glob_pattern*
-O
选项将保存与目录中的名称相同的文件: - )