Python - 从多个线程附加到同一文件

时间:2012-08-16 09:09:00

标签: python multithreading python-multithreading

我正在编写一个应用程序,它将行从多个线程追加到同一个文件中。

我遇到一些问题,其中添加了一些没有新行的行。

对此有何解决方案?

class PathThread(threading.Thread):
    def __init__(self, queue):
        threading.Thread.__init__(self)
        self.queue = queue

    def printfiles(self, p):
        for path, dirs, files in os.walk(p):
            for f in files:
                print(f, file=output)

    def run(self):
        while True:
            path = self.queue.get()
            self.printfiles(path)
            self.queue.task_done()


pathqueue = Queue.Queue()
paths = getThisFromSomeWhere()

output = codecs.open('file', 'a')

# spawn threads
for i in range(0, 5):
    t = PathThread(pathqueue)
    t.setDaemon(True)
    t.start()

# add paths to queue
for path in paths:
    pathqueue.put(path)

# wait for queue to get empty
pathqueue.join()

3 个答案:

答案 0 :(得分:29)

解决方案是仅在一个线程中写入文件。

import Queue  # or queue in Python 3
import threading

class PrintThread(threading.Thread):
    def __init__(self, queue):
        threading.Thread.__init__(self)
        self.queue = queue

    def printfiles(self, p):
        for path, dirs, files in os.walk(p):
            for f in files:
                print(f, file=output)

    def run(self):
        while True:
            result = self.queue.get()
            self.printfiles(result)
            self.queue.task_done()

class ProcessThread(threading.Thread):
    def __init__(self, in_queue, out_queue):
        threading.Thread.__init__(self)
        self.in_queue = in_queue
        self.out_queue = out_queue

    def run(self):
        while True:
            path = self.in_queue.get()
            result = self.process(path)
            self.out_queue.put(result)
            self.in_queue.task_done()

    def process(self, path):
        # Do the processing job here

pathqueue = Queue.Queue()
resultqueue = Queue.Queue()
paths = getThisFromSomeWhere()

output = codecs.open('file', 'a')

# spawn threads to process
for i in range(0, 5):
    t = ProcessThread(pathqueue, resultqueue)
    t.setDaemon(True)
    t.start()

# spawn threads to print
t = PrintThread(resultqueue)
t.setDaemon(True)
t.start()

# add paths to queue
for path in paths:
    pathqueue.put(path)

# wait for queue to get empty
pathqueue.join()
resultqueue.join()

答案 1 :(得分:3)

事实上,你从未在同一行看到混乱的文本或行中间的新行是一个线索,你实际上不需要同步附加到文件。问题是你使用print写入单个文件句柄。我怀疑print实际上是在一次调用中对文件句柄进行了2次操作,并且这些操作在线程之间竞争。基本上print正在做类似的事情:

file_handle.write('whatever_text_you_pass_it')
file_handle.write(os.linesep)

因为不同的线程在同一个文件句柄上同时执行此操作,有时一个线程将在第一次写入时进入,另一个线程将在第一次写入时进入,然后您将连续获得两个回车符。或者真的是这些的排列。

解决此问题的最简单方法是停止使用print并直接使用write。尝试这样的事情:

output.write(f + os.linesep)
这对我来说似乎仍然很危险。我不确定使用相同的文件句柄对象并争用其内部缓冲区的所有线程可以期待什么样的gaurantees。个人id侧面整个问题,让每个线程都得到自己的文件句柄。另请注意,这是有效的,因为写入缓冲区刷新的默认值是行缓冲的,因此当它对文件执行刷新时,它将以os.linesep结束。强制它使用行缓冲发送1作为open的第三个参数。你可以这样测试一下:

#!/usr/bin/env python
import os
import sys
import threading

def hello(file_name, message, count):
  with open(file_name, 'a', 1) as f:
    for i in range(0, count):
      f.write(message + os.linesep)

if __name__ == '__main__':
  #start a file
  with open('some.txt', 'w') as f:
    f.write('this is the beginning' + os.linesep)
  #make 10 threads write a million lines to the same file at the same time
  threads = []
  for i in range(0, 10):
    threads.append(threading.Thread(target=hello, args=('some.txt', 'hey im thread %d' % i, 1000000)))
    threads[-1].start()
  for t in threads:
    t.join()
  #check what the heck the file had
  uniq_lines = set()
  with open('some.txt', 'r') as f:
    for l in f:
      uniq_lines.add(l)
  for u in uniq_lines:
    sys.stdout.write(u)

输出如下:

hey im thread 6
hey im thread 7
hey im thread 9
hey im thread 8
hey im thread 3
this is the beginning
hey im thread 5
hey im thread 4
hey im thread 1
hey im thread 0
hey im thread 2

答案 2 :(得分:1)

也许还有一些他们不应该的新线?

您应该记住,共享资源不应该一次被多个线程访问,否则可能会发生不可预测的后果(使用线程时使用'原子操作')。

看看这个页面有点直觉:Thread Synchronization Mechanisms in Python