在Python中交替或并发同步的目录

时间:2015-01-07 23:16:38

标签: python multiprocessing os.walk xlsxwriter

我不确定这个问题是否切合实际或确实可行,但现在就说了。我有两个目录,我们称之为FIRST_DIR和SECOND_DIR,在每个文件夹中我都有匹配的日志和日志名称,如下所示..

FIRST DIR
  F_log1.txt
  F_log2.txt
  ...

SECOND_DIR
  S_log1.txt
  S_log2.txt
  ...

我已经看过SO上的示例,如下面的帖子所示,但是这会先处理一个目录中的所有日志,然后再处理第二个目录中的所有日志。我正在寻找处理F_log1.txt然后处理S_log1.txt和F_log2.txt然后处理S_log2.txt,这样我就可以收集类似的日志统计信息,以便在我使用xlsxwriter的情况下绘制到Excel图表中。

paths = ('C:\FIRST_DIR', 'C:\SECOND_DIR')
for path, dirs, files in chain.from_iterable(os.walk(path) for path in paths):

以上通常可以处理几个日志,我可以从每个日志收集统计信息列表,并根据日志编号相应地命名列表,然后在处理结束时参考它们,但这些日志是100MB数量通常为50+,每个日志收集的统计数据最多为20,000,因此可能存储的内存数量太多。

还有这个问题吗?

感谢阅读, MikG

0 个答案:

没有答案