我在目录中有一个python virtualvenv,在它的内部,我使用startproject命令行创建了一个scrapy项目。
我的目录结构:
root
| settings.py
| env (virtual env)
| requirements.txt (has scrapy, splash and other modules)
| __init__.py
|
| shared (shared code)
| | __init__.py
| | helper.py
|
| scrapy_project
| | scrapy.cfg
| | WebCrawler
| | | __init__.py
| | | settings.py
| | | items.py
| | | spiders
| | | | SplashSpider.py
当我想运行scrapy_project
蜘蛛时,我先做cd scrapy_project
,然后再做scrapy crawl splash_spider
,但是问题是在我的SplashSpider.py
内部,我需要从{{ 1}}模块放在根目录中。
我尝试使用shared
导入helper.py
,但收到此错误from shared import helper
我正在尝试在根目录下包含多个scrapy项目,并在每个项目的Spider中使用ModuleNotFoundError: No module named 'shared'
模块。最好的方法是什么?