我有基于不同格式文件的实时数据流。数据通过网络传输,并写入目录层次结构中某些子目录中的文件。从那里它被拾取并进一步处理。我想重播,例如有一天这个数据流用于测试和模拟目的。我可以将数据流复制一天到第二台机器并以这种方式“记录”它,只需让文件堆积而不处理或移动它们。
我需要一些简单的东西,比如Perl脚本,它接受一个基本目录,查看子目录中所有包含的文件及其创建时间,然后在一天的同一时间将文件复制到另一个基本目录。
简单示例:我有文件a/file.1
2012-03-28 15:00,b/file.2
2012-03-28 09:00,c/file.3
2012-03-28 12:00 。如果我在2012-03-29 08:00运行脚本/程序,它应该睡到09:00,将b/file.2
复制到../target_dir/b/file.2
,然后睡到12:00,复制{{1} }到c/file.3
,然后睡到15:00并将../target_dir/c/file.3
复制到a/file.1
。
这样的工具是否已经存在?我似乎错过了正确的搜索关键字来找到它。
环境是Linux,首选命令行。有一天它将是数千个文件,总共有几GB。时机不必非常精确。第二个分辨率会很好,分钟分辨率就足够了。