标签: python python-multiprocessing
美好的一天,
我有一个看起来像这样的实现:基本上,一个多进程Web爬虫
pool = Pool() def worker: link = get_url() pool.async(worker, args=(link,)) pool.async(worker,args=("www.url.com",))
不幸的是,这不起作用,因为看起来运行工作的进程似乎无法重新访问原始池并且崩溃。有没有办法解决这个问题?