使用多处理时,实例变量未更新Python

时间:2016-05-24 11:32:14

标签: python multithreading scapy

我在更新变量方面遇到了一个不寻常的问题。我已经构建了一个简单的类对象来帮助我进行一些网络嗅探。我想创建一个并行进程,允许我运行一些网络测试并捕获使用python生成的流量,这样我就可以扩展程序来做一些惊人的事情。我正在使用scapy的嗅探功能来帮助界面嗅探。

Scapy的嗅探器允许您将功能传递给自身功能,允许您创建“停止嗅探”状态。在我的情况下,我创建了函数stop_filter,我希望通过简单地更新self.stop_sniffing实例变量来停止Scapy嗅探功能。我已经在下面展示了程序输出,它在函数self.stop_sniffing中显示stop设置为True,但在stop_filter中打印时会被设置回False(或根本不更新) }。我不知道为什么会发生这种情况并且没有解决方案,因为这是一个非常奇怪的问题。

如果有新鲜眼睛的人能看到我在这里做过的疯狂事情,我将不胜感激!

from scapy.all import *
from multiprocessing import Process


class DatasetSniffer:
    def __init__(self, iface, local_dir='.'):
        self.iface = iface
        self.master = None
        self.local_dir = local_dir
        self.stop_sniffing = False # Never updates! why!?
        self.writer = PcapWriter(local_dir+"/master.pcap", append=True, sync=True)

    def stop_filter(self, p):
        # Note: 'p' gets passed in by Scapy function 'sniff'
        print self.stop_sniffing
        # Return 'True' to stop sniffer
        return self.stop_sniffing

    def sniff(self):
        sniff(store=0, prn=self.writer.write, iface=self.iface, stop_filter=self.stop_filter)

    def start(self):
        self.master = Process(target=self.sniff)
        self.master.start()

    def stop(self):
        self.stop_sniffing = True
        # Shows that self.stop_sniffing is 'True'
        print self.stop_sniffing
        self.master.join()


if __name__ == "__main__":
    interface = 'en3'
    sniffer = DatasetSniffer(interface)
    sniffer.start()
    #   some process
    time.sleep(5)
    sniffer.stop()

Shell输出:

sudo python sniffing.py
False
False
False
False
False
False
False
False
False
False
False
False
False
False
False
False
True
False
False
False
False

2 个答案:

答案 0 :(得分:4)

问题

您在使用多个进程的此示例代码中没有使用多个线程。

这里有两个不共享内存的独立进程:

  • 原始流程
  • multiprocessing.Process.start

    启动的新流程
    • 此过程将通过分叉原始进程启动,在fork时创建其内存的副本。他们没有“分享”记忆。

现在,当您在原始流程中调用DatasetSniffer.stop时,这不会改变新(“主”)流程中stop_sniffing的值。

如何沟通呢?

使用multiprocessing时,您可以使用Pipe进行通信。像这样:

readable_pipe, writable_pipe = multiprocessing.Pipe(duplex=False)
process = Process(target=do_something)

现在,我们的原始进程可以通过写入管道发送消息:

writable_pipe.send("stop")

虽然新进程可以使用以下方法检查邮件:

if readable_pipe.poll():
    msg = readable_pipe.recv()

尝试在您的代码中使用它。

答案 1 :(得分:0)

感谢您的所有建议。经过一番灵感,我设法敲了这个剧本。可能是一种更好的方法来解决我的问题,而无需进行太多的更改。因此,此代码允许线程在类外部使用stop函数,从而允许所有异步任务使用stop_filter

在以下链接中找到此信息。有趣的是,这篇文章对其他人有用! http://www.tutorialspoint.com/python/python_multithreading.htm

干杯!

import threading
from scapy.all import *
from datetime import datetime

directory = str(datetime.now().strftime("%Y%m%d%H%M%S"))
os.makedirs(directory)

DatasetSnifferExit = 0

class DatasetSniffer(threading.Thread):
    def __init__(self, iface, local_dir='.', filename=str(datetime.now())):
        self.iface = iface
        self.filename = filename
        self.local_dir = local_dir
        self.stop_sniffing = False
        self.writer = PcapWriter(local_dir+"/"+filename+".pcap", append=True, sync=True)
        threading.Thread.__init__(self)

    def run(self):
        sniff_interface(self.writer.write, self.iface)


def stop_filter(p):
    if DatasetSnifferExit:
        return True
    else:
        return False


def sniff_interface(write, iface):
    sniff(store=0, prn=write, iface=iface, stop_filter=stop_filter)


if __name__ == "__main__":
    DatasetSnifferExit = False
    # Create new threads
    pcap1 = DatasetSniffer('en3', directory, "master")
    pcap2 = DatasetSniffer('en0', directory, "slave")

    # Start new Threads
    pcap1.start()
    pcap2.start()

    # Do stuff
    time.sleep(10)

    # Finished doing stuff
    DatasetSnifferExit = True