pyshark数据包队列和pickle错误

时间:2015-02-26 15:41:28

标签: python python-2.7 pyshark

我正在尝试使用pyshark来实时捕获数据包。

当我尝试从multiprocessing.Queue un-pickle 获取数据包时出现以下错误:

  

python2.7 / site-packages / pyshark / packet / layer.py",第48行,在__getattr__中   val = self.get_field_value(item,raw = self.raw_mode)
  (......多次......)
   RuntimeError :调用Python对象时超出了最大递归深度。

我怀疑在重建对象时是否存在问题,无论是从队列中检索还是取消对象。
但令人惊讶的是,当我使用Queue.Queue执行此操作时没有错误。

以下是用于重现此问题的代码:

import pyshark
import multiprocessing
import Queue
import cPickle as pickle

# Capture on eth0
interface = pyshark.LiveCapture(interface="eth0")

def queue_test(queue):
    """ Puts captured packets in a queue, then un-queue them and display """
    for packet in interface.sniff_continuously(packet_count=5):
        queue.put(packet)
    while not queue.empty():
        packet = queue.get()
        print "Packet {} {}".format(packet.highest_layer,packet._packet_string)

def pickle_test():
    """ Immediately pickle and unpickle the packet to display it"""
    for packet in interface.sniff_continuously(packet_count=5):
        pickled_packet = pickle.loads(pickle.dumps(packet, pickle.HIGHEST_PROTOCOL))
        print "Packet #{}, {} {}".format(pickled_packet.highest_layer,pickled_packet._packet_string)


if __name__ == "__main__":
    normal_queue = Queue.Queue()
    process_queue = multiprocessing.Queue()

    # Runs fine
    queue_test(normal_queue)

    # Both crash with a RuntimeError
    queue_test(process_queue)
    pickle_test()

为什么我会得到RuntimeErrors以及我该怎么做呢? 我做错了什么或pyshark有问题吗?

1 个答案:

答案 0 :(得分:0)

在这里没有取得多大成功,我在pyshark's Github上发布了一个问题,而且它恰好在图书馆中缺少了:

  

这是因为某些类数据包使用了覆盖getattr的事实。已修复541fc52

此问题的链接:https://github.com/KimiNewt/pyshark/issues/63