Python中的并行处理问题

时间:2015-12-01 06:13:57

标签: python shell parallel-processing gnu-parallel

我有一个python脚本A.py,它接受​​带有一些list of IPs的目标文件的参数,并输出一个CSV文件,其中包含有关来自某些来源的IP的信息。{{1 }}。

完成工作需要很长时间。后来,我拆分输入文件( Run Method : python A.py Input.txt -c Output.csv ) - >创建目录(( split -l 1000 Input.txt)) - >使用在10 directories模式

中并行分成10个目录的输入执行脚本

如何有效地完成这类工作?有什么建议吗?

1 个答案:

答案 0 :(得分:1)

试试这个:

A.py

如果parallel --round --pipepart -a Input.txt --fifo python A.py {} -c {#}.csv 可以从fifo读取,则效率更高:

--pipe

如果您的磁盘搜索时间较长,那么使用--pipepart代替awk可能会更快。