如何使用多处理池读取文件

时间:2017-12-21 16:55:29

标签: python python-2.7 multiprocessing python-multiprocessing

我想读取内容大约2GB的文件,我尝试使用多处理池来做,但是它收到错误:

TypeError: 'type' object is not iterable

我知道地图总是接受可迭代的参数,但有没有办法做到这一点? 到目前为止,这是我的代码:

def load_embeddings(FileName):

    #file = open(FileName,'r')
    embeddings = {}
    i = 0
    print  "Loading word embeddings first time"
    for line in FileName:
             # print line

            tokens = line.split('\t')
            tokens[-1] = tokens[-1].strip()

            #each line has 400 tokens
            for i in xrange(1, len(tokens)):
                    tokens[i] = float(tokens[i])
                    embeddings[tokens[0]] = tokens[1:-1]
    print  "finished"
    return embeddings

if __name__ == "__main__":

    t1 = time.time()
    p = Pool(processes=5)
    FileName  = './asag/Resources/EN-wform.w.5.cbow.neg10.400.subsmpl.txt'
    file_ = open(FileName,'r')
    #fun = partial(load_embeddings,FileName) 
    result = p.map(load_embeddings, file_)
    p.close()
    p.join()
    print ("Time it took :" + str(time.time() - t1))

1 个答案:

答案 0 :(得分:1)

如果源代码在单进程环境中运行,那么它将是正确的。虽然您的参数FileName应该命名为file,因为它实际上是一个打开的文件句柄而不是文件名(字符串)。

现在,会发生的情况是,您正在为5个进程提供相同的文件句柄来处理。使用for line in FileName,您可以对文件句柄执行读取操作。这在五个不同的过程中并行发生。所有人都不知道其他人(这是它的美丽:对于操作系统来说,这些是不同的程序运行。但它们都是从同一个文件句柄中读取的)。现在,似乎这不是原子的,并且在仅部分读取该行之后可以中断该调用。也可以,python在内部缓冲,但缓冲区是每个进程。这导致在line或第一行的部分和第二行的部分中有半行(因为python只读到它看到第一个\n)然后当你想要处理时出现错误更进一步。

要解决此问题,您需要先在主进程中阅读该文件,然后将这些行交给map函数,如下所示:

from multiprocessing import Pool

def load_embeddings(line):
    embeddings = {}
    i = 0
    tokens = line.split('\t')
    tokens[-1] = tokens[-1].strip()

    #each line has 400 tokens
    for i in xrange(1, len(tokens)):
            tokens[i] = float(tokens[i])
            embeddings[tokens[0]] = tokens[1:-1]
    print "finished"
    return embeddings

if __name__ == "__main__":
    p = Pool(processes=5)
    file_name  = 'file.tsf'
    lines = []
    with open(file_name,'r') as f:
        for line in f:
            lines.append(line.strip())

    result = p.map(load_embeddings, lines)
    p.close()
    p.join()