Python套接字缓冲

时间:2009-05-04 20:51:00

标签: python sockets buffering

假设我想使用标准socket模块从套接字读取一行:

def read_line(s):
    ret = ''

    while True:
        c = s.recv(1)

        if c == '\n' or c == '':
            break
        else:
            ret += c

    return ret

s.recv(1)到底发生了什么?它每次都会发出系统调用吗?我想我应该添加一些缓冲,无论如何:

  

为了最好地匹配硬件和网络现实, bufsize 的值应该是2的相对较小的幂,例如,4096。

http://docs.python.org/library/socket.html#socket.socket.recv

但是编写高效且线程安全的缓冲似乎并不容易。如果我使用file.readline()怎么办?

# does this work well, is it efficiently buffered?
s.makefile().readline()

3 个答案:

答案 0 :(得分:26)

如果您关心性能并完全控制插座 (例如,你没有将它传递到库中)然后尝试实现 你自己在Python中的缓冲 - Python string.find和string.split等都可以 非常快。

def linesplit(socket):
    buffer = socket.recv(4096)
    buffering = True
    while buffering:
        if "\n" in buffer:
            (line, buffer) = buffer.split("\n", 1)
            yield line + "\n"
        else:
            more = socket.recv(4096)
            if not more:
                buffering = False
            else:
                buffer += more
    if buffer:
        yield buffer

如果您希望有效负载由线组成 这不是太大,应该跑得快, 并避免跳过太多功能层 不必要地打电话。知道我会很有趣 如何与file.readline()或使用socket.recv(1)进行比较。

答案 1 :(得分:19)

通过调用C库函数直接处理recv()调用。

它将阻止等待套接字获取数据。实际上它只会让recv()系统调用阻塞。

file.readline()是一种有效的缓冲实现。它不是线程安全的,因为它假定它是唯一读取文件的人。 (例如,通过缓冲即将到来的输入。)

如果您正在使用文件对象,则每次使用正参数调用read()时,基础代码将仅recv()请求的数据量,除非它已经被缓冲。

如果符合以下条件,它将被缓冲:

  • 你调用了readline(),它读取了一个完整的缓冲区

  • 该行的结尾位于缓冲区结束之前

因此将数据留在缓冲区中。否则缓冲区通常不会过满。

问题的目标尚不清楚。如果您需要在阅读之前查看数据是否可用,您可以select()或使用s.setblocking(False)将套接字设置为非阻塞模式。然后,如果没有等待数据,则读取将返回空,而不是阻塞。

您是否正在阅读一个包含多个线程的文件或套接字?我会让一个工作者读取套接字并将收到的项目送入队列以供其他线程处理。

建议咨询Python Socket Module sourceC Source that makes the system calls

答案 2 :(得分:6)

def buffered_readlines(pull_next_chunk, buf_size=4096):
  """
  pull_next_chunk is callable that should accept one positional argument max_len,
  i.e. socket.recv or file().read and returns string of up to max_len long or
  empty one when nothing left to read.

  >>> for line in buffered_readlines(socket.recv, 16384):
  ...   print line
    ...
  >>> # the following code won't read whole file into memory
  ... # before splitting it into lines like .readlines method
  ... # of file does. Also it won't block until FIFO-file is closed
  ...
  >>> for line in buffered_readlines(open('huge_file').read):
  ...   # process it on per-line basis
        ...
  >>>
  """
  chunks = []
  while True:
    chunk = pull_next_chunk(buf_size)
    if not chunk:
      if chunks:
        yield ''.join(chunks)
      break
    if not '\n' in chunk:
      chunks.append(chunk)
      continue
    chunk = chunk.split('\n')
    if chunks:
      yield ''.join(chunks + [chunk[0]])
    else:
      yield chunk[0]
    for line in chunk[1:-1]:
      yield line
    if chunk[-1]:
      chunks = [chunk[-1]]
    else:
      chunks = []