标签: python multithreading web-crawler
我有一个使用多线程的爬虫,并且在爬网网站时可以使用,但是我的问题是。
如果我告诉抓取工具获取网站的前100页,它将执行该操作,但不会停止该线程。
我已经设置了一个始终检查的线程安全变量,但是我发现它看起来像爬虫忽略了线程安全变量的值。
因此,它不会停止他们继续运行的所有线程,就像他们在寻找更多页面一样。
如何停止所有线程并结束脚本?