我想在docker中安装crawlera avec setuptools。
在我的scrapy.cfg文件中我有:
[deploy=test]
url = http://localhost:6800/
project = Crawling
我通过scrapyd-deploy -l
测试,我有
test http://localhost:6800/
在我的setup.py
我有
来自setuptools导入设置,find_packages
setup(
name = 'Crawling',
version = '1.0',
packages = find_packages(),
entry_points = {'scrapy': ['settings = Crawling.settings']},
install_requires=['scrapy-crawlera'],
)
在我requires.txt
的最后{i} scrapy-crawlera
但我的泊坞窗中没有安装crawlera 。
答案 0 :(得分:1)
Docker安装不正确,我通过重新安装Docker解决了我的问题