Python多处理+ logging.FileHandler

时间:2012-09-02 18:57:32

标签: python logging multiprocessing

我正在尝试在多处理服务器中实现日志记录。根据文档,“不支持从多个进程记录到单个文件”。我创建了一个小程序来检查这个语句:

import logging
import multiprocessing
import os

log = logging.getLogger()


def setup_logger():
    formatter = logging.Formatter('%(asctime)s %(name)s %(levelname)s: %(message)s')

    fileHandler = logging.FileHandler('test.log')
    fileHandler.setFormatter(formatter)

    log.setLevel(logging.DEBUG)
    log.addHandler(fileHandler)


def write_log_entries(identifier, start_event):
    start_event.wait()
    for i in range(100):
        s = ''.join(str(identifier) for k in range(30))
        log.info('[{}, {}] --- {}'.format(os.getpid(), identifier, s))


if __name__ == '__main__':
    setup_logger()
    procs = []
    start_event = multiprocessing.Event()
    for i in range(100, 300):
        p = multiprocessing.Process(target=write_log_entries, args=(i, start_event))
        procs.append(p)

    for p in procs:
        p.start()

    start_event.set()

    for p in procs:
        p.join()

执行上面的代码后,我希望在“test.log”中看到一个完整的混乱,但一切似乎都很好(当然,时间戳除外,它们不是按顺序排列)。

有人可以解释为什么当多个进程同时写入日志文件时,日志条目是否重叠?在这种情况下,log.info()可以被视为原子吗?

1 个答案:

答案 0 :(得分:9)

简短回答:内核将单个调用锁定到write,因此只要消息很小就可以,所以它们会在单个write中刷新,并且write成功地一次性写出一切。没有一般保证是这种情况,这就是为什么文档不承诺这将起作用的原因。

答案很长:每次调用log.info都会刷新日志输出。这是必要的,否则您将无法在文件中看到最新的日志条目。在Python / libc级别,flush实现为对write(2)系统调用的调用,调用该调用以写出文件缓冲区的内容(如果有)。在您的情况下,缓冲区内容是您的日志消息。因此,Python或libc(取决于正在使用的文件)最终会调用OS调用,例如:

write(fd, buf, buflen);

...其中fd是日志文件的系统级文件描述符,buf是缓冲写入的内存,buflen是消息的长度。 (如果在Linux上使用strace等工具跟踪Python进程,则可以看到这些调用。write返回成功写入的字符数,内核不会将这些字符与其他写入交错在文件的同一区域。如果在O_APPEND模式下打开文件,则写入甚至保证在文件末尾,至少在Unix上。因此,如果buflen很小,就像普通日志消息一样,一切都很好。但至少有两件事可能出错。

首先,无法保证所有buflen都会写在一个write中。 write可以被信号中断,fd可以指向接受固定大小写入的设备,或者您的日志消息可能足够大,内核不能在单个块中接受它。通常情况下,这不是问题 - 正确编写write始终作为循环实现。但在您的情况下,这将是一场灾难,因为对write 的不同调用将与其他进程交错。

其次,如果您的日志消息足够大以至于它不适合stdio缓冲区(8K左右),那么它将在到达内核之前被拆分为块。在记录回溯时,或将日志格式化为XML等详细格式时,很容易发生这种情况。