我正在寻找一种通过包含100,000个文件的目录迭代的方法。使用os.listdir
的速度很慢,因为此函数首先从整个指定路径中获取路径列表。
最快的选择是什么?
注意:任何被投票的人都没有遇到过这种情况。
答案 0 :(得分:1)
另一个问题在评论中被称为副本:
List files in a folder as a stream to begin process immediately
......但我发现这个例子是半工作的。这是适用于我的固定版本:
from ctypes import CDLL, c_int, c_uint8, c_uint16, c_uint32, c_char, c_char_p, Structure, POINTER
from ctypes.util import find_library
import os
class c_dir(Structure):
pass
class c_dirent(Structure):
_fields_ = [
("d_fileno", c_uint32),
("d_reclen", c_uint16),
("d_type", c_uint8),
("d_namlen", c_uint8),
("d_name", c_char * 4096),
# proper way of getting platform MAX filename size?
# ("d_name", c_char * (os.pathconf('.', 'PC_NAME_MAX')+1) )
]
c_dirent_p = POINTER(c_dirent)
c_dir_p = POINTER(c_dir)
c_lib = CDLL(find_library("c"))
opendir = c_lib.opendir
opendir.argtypes = [c_char_p]
opendir.restype = c_dir_p
# FIXME Should probably use readdir_r here
readdir = c_lib.readdir
readdir.argtypes = [c_dir_p]
readdir.restype = c_dirent_p
closedir = c_lib.closedir
closedir.argtypes = [c_dir_p]
closedir.restype = c_int
def listdir(path):
"""
A generator to return the names of files in the directory passed in
"""
dir_p = opendir(".")
try:
while True:
p = readdir(dir_p)
if not p:
break
name = p.contents.d_name
if name not in (".", ".."):
yield name
finally:
closedir(dir_p)
if __name__ == "__main__":
for name in listdir("."):
print name
答案 1 :(得分:0)
您对目录中的每个文件做了什么?我认为使用os.listdir并没有真正的选择,但是根据你在做什么,你可能能够并行处理文件。例如,我们可以使用多处理库中的池来生成更多的Python进程,然后让每个进程迭代一小部分文件。
http://docs.python.org/library/multiprocessing.html
这有点粗糙,但我认为它得到了重点......
import sys
import os
from processing import Pool
p = Pool(3)
def work(subsetOfFiles):
for file in subsetOfFiles:
with open(file, 'r') as f:
#read file, do work
return "data"
p.map(work, [[#subSetFiles1],[#subSetFiles2],[#subSetFiles3]])
一般的想法是从os.listdir获取文件列表,但不是逐个超过100,000个文件,我们将100,000个文件分成20个5,000个文件列表,并在每个进程中处理5,000个文件。这种方法的一个好处是它将受益于当前的多核系统趋势。