高效的FIFO队列,用于Python中任意大小的字节块

时间:2012-06-06 15:43:36

标签: python

如何实现一个FIFO缓冲区,我可以有效地将任意大小的字节块添加到头部,从中可以有效地从尾部弹出任意大小的字节块?

背景:

我有一个类,它以类似文件的对象从任意大小的块中读取字节,并且本身就是一个类文件对象,客户端可以从中读取任意大小的块中的字节。

我实现的方法是,每当客户端想要读取一大块字节时,该类将重复读取基础文件类对象(具有适合这些对象的块大小)并将字节添加到头部一个FIFO队列,直到队列中有足够的字节为客户端提供所请求大小的块。然后它将这些字节从队列的尾部弹出并将它们返回给客户端。

当基础文件类对象的块大小远大于客户端从类中读取时使用的块大小时,会出现性能问题。

假设基础文件类对象的块大小为1 MiB,客户端读取的块大小为1 KiB。客户端第一次请求1 KiB时,该类必须读取1 MiB并将其添加到FIFO队列中。然后,对于该请求和随后的1023个请求,类必须从FIFO队列的尾部弹出1 KiB,其大小从1 MiB逐渐减小到0字节,此时循环再次开始。

我目前用StringIO对象实现了这个。将新字节写入StringIO对象的末尾很快,但是从头开始删除字节非常慢,因为必须创建一个新的StringIO对象,它保存整个前一个缓冲区的副本减去第一个字节块。 / p>

处理类似问题的问题往往指向deque容器。但是,deque实现为双向链表。将一个块写入双端队列需要将块拆分为对象,每个对象包含一个字节。然后,deque将向每个对象添加两个指针用于存储,与字节相比,可能将存储器需求增加至少一个数量级。此外,遍历链表并处理每个对象都需要很长时间才能将块拆分为对象并将对象连接成块。

4 个答案:

答案 0 :(得分:14)

  

我目前用StringIO对象实现了这个。写新   字节到StringIO对象的末尾很快,但删除字节   从一开始就很慢,因为一个新的StringIO对象,即   保存整个前一个缓冲区的副本减去第一个块   必须创建字节。

实际上,实现FIFO的最典型方法是两个使用环绕缓冲区,其中有两个指针:

enter image description here image source

现在,您可以使用StringIO()使用.seek()从适当的位置读取/写入来实现该功能。

答案 1 :(得分:11)

更新:以下是来自vartec's answer的循环缓冲技术的实现(基于我原来的答案,保存在下面,对于那些好奇的人):

from cStringIO import StringIO

class FifoFileBuffer(object):
    def __init__(self):
        self.buf = StringIO()
        self.available = 0    # Bytes available for reading
        self.size = 0
        self.write_fp = 0

    def read(self, size = None):
        """Reads size bytes from buffer"""
        if size is None or size > self.available:
            size = self.available
        size = max(size, 0)

        result = self.buf.read(size)
        self.available -= size

        if len(result) < size:
            self.buf.seek(0)
            result += self.buf.read(size - len(result))

        return result


    def write(self, data):
        """Appends data to buffer"""
        if self.size < self.available + len(data):
            # Expand buffer
            new_buf = StringIO()
            new_buf.write(self.read())
            self.write_fp = self.available = new_buf.tell()
            read_fp = 0
            while self.size <= self.available + len(data):
                self.size = max(self.size, 1024) * 2
            new_buf.write('0' * (self.size - self.write_fp))
            self.buf = new_buf
        else:
            read_fp = self.buf.tell()

        self.buf.seek(self.write_fp)
        written = self.size - self.write_fp
        self.buf.write(data[:written])
        self.write_fp += len(data)
        self.available += len(data)
        if written < len(data):
            self.write_fp -= self.size
            self.buf.seek(0)
            self.buf.write(data[written:])
        self.buf.seek(read_fp)

原始答案(被上述答案取代):

您可以使用缓冲区并跟踪起始索引(读取文件指针),当它变得太大时偶尔压缩它(这应该会产生相当好的摊销性能)。

例如,像这样包装一个StringIO对象:

from cStringIO import StringIO
class FifoBuffer(object):
    def __init__(self):
        self.buf = StringIO()

    def read(self, *args, **kwargs):
        """Reads data from buffer"""
        self.buf.read(*args, **kwargs)

    def write(self, *args, **kwargs):
        """Appends data to buffer"""
        current_read_fp = self.buf.tell()
        if current_read_fp > 10 * 1024 * 1024:
            # Buffer is holding 10MB of used data, time to compact
            new_buf = StringIO()
            new_buf.write(self.buf.read())
            self.buf = new_buf
            current_read_fp = 0

        self.buf.seek(0, 2)    # Seek to end
        self.buf.write(*args, **kwargs)

        self.buf.seek(current_read_fp)

答案 2 :(得分:3)

您能否假设任何有关预期的读/写金额?

将数据分块为例如1024字节片段并使用deque [1]可能会更好地工作;你可以只读取N个完整的块,然后读取最后一个块,然后将剩余部分放回队列的开头。

1)collections.deque

class collections.deque([iterable[, maxlen]])

  

返回一个从左到右初始化的新deque对象(使用append())和来自iterable的数据。如果未指定iterable,则新的deque为空。

     

Deques是堆栈和队列的概括(名称发音为“deck”,是“双端队列”的缩写)。 Deques支持线程安全,内存有效的附加和从双端队列的弹出,在任一方向上具有大致相同的O(1)性能。 ...

答案 3 :(得分:1)

  

...但是从开头删除字节的速度非常慢,因为必须创建一个新的StringIO对象,该对象持有整个先前缓冲区的副本减去第一字节字节。

可以通过在Python> = v3.4中使用bytearray来克服这种缓慢性。 参见此issue中的讨论,补丁为here

关键是:通过以下方式从bytearray中删除头字节:

a[:1] = b''   # O(1) (amortized)

快得多
a = a[1:]     # O(len(a))

len(a)很大时(例如10 ** 6)。

bytearray还为您提供了一种方便的方式来将整个数据集预览为数组(即本身),这与需要将对象连接成块的双端队列容器相反。

现在可以按以下方式实现高效的FIFO

class byteFIFO:
    """ byte FIFO buffer """
    def __init__(self):
        self._buf = bytearray()

    def put(self, data):
        self._buf.extend(data)

    def get(self, size):
        data = self._buf[:size]
        # The fast delete syntax
        self._buf[:size] = b''
        return data

    def peek(self, size):
        return self._buf[:size]

    def getvalue(self):
        # peek with no copy
        return self._buf

    def __len__(self):
        return len(self._buf)

基准

import time
bfifo = byteFIFO()
bfifo.put(b'a'*1000000)        # a very long array
t0 = time.time()
for k in range(1000000):
    d = bfifo.get(4)           # "pop" from head
    bfifo.put(d)               # "push" in tail
print('t = ', time.time()-t0)  # t = 0.897 on my machine

Cameron的答案中的循环/环形缓冲区实现需要2.378秒,而他/她的原始实现需要1.108秒。