如何在Debian中从另一个文件夹运行scrapy crawler

时间:2016-07-18 13:52:02

标签: python web-scraping scrapy web-crawler

我在 Debian 中使用 Python Scrapy ,我有一个PHP脚本来运行我的蜘蛛。 我的php脚本位于项目的顶级目录

<?php 
$cp = $argv[1];
shell_exec('scrapy crawl mySpider -a  idcrawl="'.$cp.'" ');
 ?>

但是当我在顶级目录中时,我可以运行它,如果我想从另一个文件夹运行我的蜘蛛,我应该如何更改我的代码? 我认为我应该在_init file改变一些东西,但我不知道如何

1 个答案:

答案 0 :(得分:0)

我应该使用chdir来更改我的目录并转到顶级目录。