ModuleNotFoundError:没有名为“ scrapy_user_agents”的模块

时间:2019-08-13 14:31:06

标签: python web-scraping scrapy

我试图在scrapy-proxy-pool中使用scrapy_user_agents。

我在我的settings.py中添加了这些行:

    DOWNLOADER_MIDDLEWARES = {
    'scrapy_proxy_pool.middlewares.ProxyPoolMiddleware': 610,
    'scrapy_proxy_pool.middlewares.BanDetectionMiddleware': 620,
    'scrapy.downloadermiddlewares.useragent.UserAgentMiddleware': None,
    'scrapy_user_agents.middlewares.RandomUserAgentMiddleware': 700,
    }

运行蜘蛛时,出现以下错误消息:

  

ModuleNotFoundError:没有名为“ scrapy_user_agents”的模块

我删除了中间件中的代理行,但出现相同的问题,同样的错误消息。

您将在下面找到完整的日志错误:

  

2019-08-13 16:05:28 [scrapy.utils.log]信息:Scrapy 1.7.3已启动(机器人:scraping_entreprises)   2019-08-13 16:05:28 [scrapy.utils.log]信息:版本:lxml 4.4.1.0,libxml2 2.9.5,cssselect 1.1.0,parsel 1.5.2,w3lib 1.21.0,Twisted 19.7.0 ,Python 3.7.4(标签/v3.7.4:e09359112e,7月   8 2019,20:34:20)[MSC v.1916 64位(AMD64)],pyOpenSSL 19.0.0(OpenSSL 1.1.1c 2019年5月28日),加密2.7,平台Windows-10-10.0.17134-SP0   2019-08-13 16:05:28 [scrapy.crawler]信息:覆盖的设置:{   ULES':['scraping_entreprises.spiders']}   2019-08-13 16:05:28 [scrapy.extensions.telnet]信息:Telnet密码:0a7932c1a3ce188f   2019-08-13 16:05:28 [scrapy.middleware]信息:启用的扩展:   ['scrapy.extensions.corestats.CoreStats',   'scrapy.extensions.telnet.TelnetConsole',   'scrapy.extensions.logstats.LogStats']   Deferred中未处理的错误:   2019-08-13 16:05:29 [扭曲]严重:延迟中未处理的错误:   追溯(最近一次通话):   抓取中的文件“ c:\ users \ nino \ pycharmprojects \ scraping \ venv \ lib \ site-packages \ scrapy \ crawler.py”,行184   return self._crawl(crawler,* args,** kwargs)   文件“ c:\ users \ nino \ pycharmprojects \ scraping \ venv \ lib \ site-packages \ scrapy \ crawler.py”,第188行,在_crawl中   d = crawler.crawl(* args,** kwargs)   在unwindGenerator中,文件“ c:\ users \ nino \ pycharmprojects \ scraping \ venv \ lib \ site-packages \ twisted \ internet \ defer.py”,行1613   返回_cancellableInlineCallbacks(gen)   文件“ c:\ users \ nino \ pycharmprojects \ scraping \ venv \ lib \ site-packages \ twisted \ internet \ defer.py”,行1529,在_cancellableInlineCallbacks中   _inlineCallbacks(None,g,status)--   文件“ c:\ users \ nino \ pycharmprojects \ scraping \ venv \ lib \ site-packages \ twisted \ internet \ defer.py”,第1418行,在_inlineCallbacks中   结果= g.send(结果)   抓取中的文件“ c:\ users \ nino \ pycharmprojects \ scraping \ venv \ lib \ site-packages \ scrapy \ crawler.py”,第86行   self.engine = self._create_engine()   在create_engine中的第111行,文件“ c:\ users \ nino \ pycharmprojects \ scraping \ venv \ lib \ site-packages \ scrapy \ crawler.py”   返回ExecutionEngine(self,lambda:self.stop())   文件“ c:\ users \ nino \ pycharmprojects \ scraping \ venv \ lib \ site-packages \ scrapy \ core \ engine.py”,第69行,init   self.downloader = downloader_cls(搜寻器)   初始化文件“ c:\ users \ nino \ pycharmprojects \ scraping \ venv \ lib \ site-packages \ scrapy \ core \ downloader_init.py”,第86行   self.middleware = DownloaderMiddlewareManager.from_crawler(crawler)   文件“ c:\ users \ nino \ pycharmprojects \ scraping \ venv \ lib \ site-packages \ scrapy \ middleware.py”,from_crawler中的第53行   返回cls.from_settings(crawler.settings,搜寻器)   文件“ c:\ users \ nino \ pycharmprojects \ scraping \ venv \ lib \ site-packages \ scrapy \ middleware.py”,第34行,位于from_settings中   mwcls = load_object(clspath)   在load_object中的文件“ c:\ users \ nino \ pycharmprojects \ scraping \ venv \ lib \ site-packages \ scrapy \ utils \ misc.py”,第46行   mod = import_module(模块)   导入模块中的文件“ C:\ Users \ Nino \ AppData \ Local \ Programs \ Python \ Python37 \ lib \ importlib_init.py”,行127   返回_bootstrap._gcd_import(name [level:],包,级别)   _gcd_import中的文件“”,第1006行   _find_and_load中的文件“”,第983行   _find_and_load_unlocked中的文件“”,第953行   _call_with_frames_removed中的文件“”,第219行   _gcd_import中的文件“”,第1006行   _find_and_load中的文件“”,第983行   _find_and_load_unlocked中的文件“”,行965   Builtins.ModuleNotFoundError:没有名为'scrapy_user_agents'的模块   2019-08-13 16:05:29 [扭曲]严重:   追溯(最近一次通话):   文件“ c:\ users \ nino \ pycharmprojects \ scraping \ venv \ lib \ site-packages \ twisted \ internet \ defer.py”,第1418行,在_inlineCallbacks中   结果= g.send(结果)   抓取中的文件“ c:\ users \ nino \ pycharmprojects \ scraping \ venv \ lib \ site-packages \ scrapy \ crawler.py”,第86行   self.engine = self._create_engine()   在create_engine中的第111行,文件“ c:\ users \ nino \ pycharmprojects \ scraping \ venv \ lib \ site-packages \ scrapy \ crawler.py”   返回ExecutionEngine(self,lambda:self.stop())   文件“ c:\ users \ nino \ pycharmprojects \ scraping \ venv \ lib \ site-packages \ scrapy \ core \ engine.py”,第69行,init   self.downloader = downloader_cls(搜寻器)   初始化文件“ c:\ users \ nino \ pycharmprojects \ scraping \ venv \ lib \ site-packages \ scrapy \ core \ downloader_init.py”,第86行   self.middleware = DownloaderMiddlewareManager.from_crawler(crawler)   文件“ c:\ users \ nino \ pycharmprojects \ scraping \ venv \ lib \ site-packages \ scrapy \ middleware.py”,from_crawler中的第53行   返回cls.from_settings(crawler.settings,搜寻器)   文件“ c:\ users \ nino \ pycharmprojects \ scraping \ venv \ lib \ site-packages \ scrapy \ middleware.py”,第34行,位于from_settings中   mwcls = load_object(clspath)   在load_object中的文件“ c:\ users \ nino \ pycharmprojects \ scraping \ venv \ lib \ site-packages \ scrapy \ utils \ misc.py”,第46行   mod = import_module(模块)   导入模块中的文件“ C:\ Users \ Nino \ AppData \ Local \ Programs \ Python \ Python37 \ lib \ importlib_init.py”,行127   返回_bootstrap._gcd_import(name [level:],包,级别)   _gcd_import中的文件“”,第1006行   _find_and_load中的文件“”,第983行   _find_and_load_unlocked中的文件“”,第953行   _call_with_frames_removed中的文件“”,第219行   _gcd_import中的文件“”,第1006行   _find_and_load中的文件“”,第983行   _find_and_load_unlocked中的文件“”,行965   ModuleNotFoundError:没有名为“ scrapy_user_agents”的模块

1 个答案:

答案 0 :(得分:1)

尝试再次卸载并安装该模块,以确保为您的python版本安装了该模块。

  
    

pip(卸载)安装ModuleName