我在ubuntu服务器上运行python脚本虽然cronjob bellow是我的bash文件内容
#!/bin/bash
cd /home/ubuntu/
PATH=$PATH:/usr/local/bin
export PATH
nohup scrapy crawl first_job &
nohup scrapy crawl second_job &
nohup scrapy crawl third_job &
wait $(pgrep third_job)
nohup scrapy crawl fourth_job &
我想要的是 third_job ,只要 third_job 完成就会开始执行
但
目前即使 third_job 完成, fouth_job 等待 first_job 和 second_job
的完成提前致谢
答案 0 :(得分:5)
获取最后一个后台进程的PID的更安全的方法是记住$!:
的值nohup scrapy crawl third_job &
PID=$!
wait $PID