我有一个python脚本A.py
,它接受带有一些list of IPs
的目标文件的参数,并输出一个CSV
文件,其中包含有关来自某些来源的IP的信息。{{1 }}。
完成工作需要很长时间。后来,我拆分输入文件( Run Method : python A.py Input.txt -c Output.csv )
- >创建目录(( split -l 1000 Input.txt)
) - >使用在10 directories
模式
如何有效地完成这类工作?有什么建议吗?
答案 0 :(得分:1)
试试这个:
A.py
如果parallel --round --pipepart -a Input.txt --fifo python A.py {} -c {#}.csv
可以从fifo读取,则效率更高:
--pipe
如果您的磁盘搜索时间较长,那么使用--pipepart
代替awk
可能会更快。