我是python的新手。我在64位操作系统上运行python 2.7.3版本32位。 (我尝试了64位,但没有锻炼)。
我按照教程在我的机器上安装了scrapy。我创建了一个项目demoz。但是当我输入scrapy crawl demoz
时,它会显示错误。当我点击(C:\ python27 \ scripts)下的scrapy命令时,我发现了这件事:
C:\Python27\Scripts>scrapy
Scrapy 0.14.2 - no active project
Usage:
scrapy <command> [options] [args]
Available commands:
fetch Fetch a URL using the Scrapy downloader
runspider Run a self-contained spider (without creating a project)
settings Get settings values
shell Interactive scraping console
startproject Create new project
version Print Scrapy version
view Open URL in browser, as seen by Scrapy
Use "scrapy <command> -h" to see more info about a command
C:\Python27\Scripts>
我猜他们在安装中缺少的东西可以让任何人帮忙...提前谢谢..
答案 0 :(得分:48)
您应该在scrapy crawl spider_name
文件所在的scrapy项目文件夹中运行scrapy.cfg
命令。
来自docs:
抓取
要让我们的蜘蛛工作,请转到项目的顶级目录并运行:
scrapy crawl dmoz
答案 1 :(得分:1)
您可以使用以下命令
从您创建的scrapy项目文件夹中运行scrapy crawl demoz
代码
scrapy startproject tutorials
例如,如果您已启动名为tutorials
的scrapy项目,则首先转到tutorials文件夹并从那里运行crawl
命令
scrapy crawl demoz
答案 2 :(得分:0)
如果您已经有一个项目,并且突然出现此错误“ Scrapy 1.3.3-no active project”,以我为例,当我打开项目时,看不到scrapy.cfg文件。我所做的是,我对项目进行了一些小的更改,例如删除了一些额外的行,并将其从github部署到实例上,并且一切正常!