如果我运行top -p $(pgrep -d','scrapy),我会获得有关scrapy进程的信息,但是这个过程可能会触发其他与python相关的进程。如何像top命令一样实时获取有关这些过程的信息? 谢谢,
丹尼答案 0 :(得分:3)
您正在寻找的是一个程序或脚本,它将收集scrapy产生的所有子进程的CPU使用情况。
如果你想自己编写脚本,可以查看ps -p {scrapy pid} -L
的输出,以获得scrapy实例化产生的所有线程。
或者,您可以将几个Linux命令链接在一起,以实现单行:
ps -C scrapy -o pcpu= | awk '{cpu_usage+=$1} END {print cpu_usage}'
ps:
-C
指定要输出的命令名称
-o pcou=
告诉ps
仅显示cpu使用情况
AWK:
{cpu_usage+=$1} END
循环来自ps
{print cpu_usage}
会将金额发送给STDOUT。