nvidia-smi的正常输出如下:
Thu May 10 09:05:07 2018
+-----------------------------------------------------------------------------+
| NVIDIA-SMI 384.111 Driver Version: 384.111 |
|-------------------------------+----------------------+----------------------+
| GPU Name Persistence-M| Bus-Id Disp.A | Volatile Uncorr. ECC |
| Fan Temp Perf Pwr:Usage/Cap| Memory-Usage | GPU-Util Compute M. |
|===============================+======================+======================|
| 0 GeForce GTX 108... Off | 00000000:0A:00.0 Off | N/A |
| 61% 74C P2 195W / 250W | 5409MiB / 11172MiB | 100% Default |
+-------------------------------+----------------------+----------------------+
+-----------------------------------------------------------------------------+
| Processes: GPU Memory |
| GPU PID Type Process name Usage |
|=============================================================================|
| 0 5973 C ...master_JPG/build/tools/program_pytho.bin 4862MiB |
| 0 46324 C python 537MiB |
+-----------------------------------------------------------------------------+
如您所见,它显示了运行CPU的PID列表。但是我也想知道PID的名称。我可以自定义输出以显示每个PID的用户名吗?我已经知道如何显示单个PID的用户名:
ps -u -p $pid
请帮帮我。非常感谢你。
更新:我已经发布了适用于我的解决方案。我还将这个上传到Github,作为那些需要详细GPU信息的人的简单脚本:
答案 0 :(得分:7)
我创建了一个脚本,它接受nvidia-smi输出并使用更多信息来丰富它:https://github.com/peci1/nvidia-htop。
这是一个python脚本,它解析GPU进程列表,解析PID,通过ps
运行它们以收集更多信息,然后将nvidia-smi
进程列表替换为丰富的列表。
使用示例:
$ nvidia-smi | nvidia-htop.py -l
Mon May 21 15:06:35 2018
+-----------------------------------------------------------------------------+
| NVIDIA-SMI 390.25 Driver Version: 390.25 |
|-------------------------------+----------------------+----------------------+
| GPU Name Persistence-M| Bus-Id Disp.A | Volatile Uncorr. ECC |
| Fan Temp Perf Pwr:Usage/Cap| Memory-Usage | GPU-Util Compute M. |
|===============================+======================+======================|
| 0 GeForce GTX 108... Off | 00000000:04:00.0 Off | N/A |
| 53% 75C P2 174W / 250W | 10807MiB / 11178MiB | 97% Default |
+-------------------------------+----------------------+----------------------+
| 1 GeForce GTX 108... Off | 00000000:05:00.0 Off | N/A |
| 66% 82C P2 220W / 250W | 10783MiB / 11178MiB | 100% Default |
+-------------------------------+----------------------+----------------------+
| 2 GeForce GTX 108... Off | 00000000:08:00.0 Off | N/A |
| 45% 67C P2 85W / 250W | 10793MiB / 11178MiB | 51% Default |
+-------------------------------+----------------------+----------------------+
+-----------------------------------------------------------------------------+
| GPU PID USER GPU MEM %MEM %CPU COMMAND |
| 0 1032 anonymou 10781MiB 308 3.7 python train_image_classifier.py --train_dir=/mnt/xxxxxxxx/xxxxxxxx/xxxxxxxx/xxxxxxx/xxxxxxxxxxxxxxx |
| 1 11021 cannotte 10765MiB 114 1.5 python3 ./train.py --flagfile /xxxxxxxx/xxxxxxxx/xxxxxxxx/xxxxxxxxx/xx/xxxxxxxxxxxxxxx |
| 2 25544 nevermin 10775MiB 108 2.0 python -m xxxxxxxxxxxxxxxxxxxxxxxxxxxxx |
+-----------------------------------------------------------------------------+
答案 1 :(得分:2)
先前的解决方案无效,因此我将解决方案发布在这里。 我使用的NVIDIA-SMI版本是440.44,但我认为这并不重要。
nvidia-smi | tee /dev/stderr | awk '/ C / {print $3}' | xargs -r ps -up
一些解释:
tee
:避免两次调用nvidia-smi awk
:抓取计算过程的PID列(类型C)xargs -r
:-r
检查输入是否为空,以便避免来自ps -up
的错误消息如果要在.bash_profile
或.bashrc
中将其作为别名:
alias nvidia-smi2='nvidia-smi | tee /dev/stderr | awk "/ C / {print \$3}" | xargs -r ps -up'
区别在于它必须在$3
之前转义。
答案 2 :(得分:1)
这是我能想到的最好的:
nvidia-smi
ps -up `nvidia-smi |tail -n +16 | head -n -1 | sed 's/\s\s*/ /g' | cut -d' ' -f3`
示例输出:
Thu May 10 15:23:08 2018
+-----------------------------------------------------------------------------+
| NVIDIA-SMI 384.111 Driver Version: 384.111 |
|-------------------------------+----------------------+----------------------+
| GPU Name Persistence-M| Bus-Id Disp.A | Volatile Uncorr. ECC |
| Fan Temp Perf Pwr:Usage/Cap| Memory-Usage | GPU-Util Compute M. |
|===============================+======================+======================|
| 0 GeForce GTX 108... Off | 00000000:0A:00.0 Off | N/A |
| 41% 59C P2 251W / 250W | 5409MiB / 11172MiB | 100% Default |
+-------------------------------+----------------------+----------------------+
+-----------------------------------------------------------------------------+
| Processes: GPU Memory |
| GPU PID Type Process name Usage |
|=============================================================================|
| 0 1606 C ...master_JPG/build/tools/program.bin 4862MiB |
| 0 15314 C python 537MiB |
+-----------------------------------------------------------------------------+
USER PID %CPU %MEM VSZ RSS TTY STAT START TIME COMMAND
user111+ 1606 134 4.8 32980224 789164 pts/19 Rl+ 15:23 0:08 /home/user111
user2 15314 0.4 10.0 17936788 1647040 pts/16 Sl+ 10:41 1:20 python server_
脚本的简短说明:
Tail
和head
删除多余的行
Sed
删除空格(在此之后,每列只会以1个空格分隔)
Cut
提取相关列
输出是PID列表,每个PID占用1行。我们只需要使用ps -up
来显示相关信息
更新:更好的解决方案:
ps -up `nvidia-smi |tee /dev/stderr |tail -n +16 | head -n -1 | sed 's/\s\s*/ /g' | cut -d' ' -f3`
这样,nvidia-smi
只需要调用一次。
另见:
How to output bash command to stdout and pipe to another command at the same time?
更新2:我已将此上传到Github,作为需要详细GPU信息的人的简单脚本:
答案 3 :(得分:0)
我用nvidia-smi -q -x
做到了这一点,它是nvidia-smi的XML样式输出
ps -up `nvidia-smi -q -x | grep pid | sed -e 's/<pid>//g' -e 's/<\/pid>//g' -e 's/^[[:space:]]*//'`
答案 4 :(得分:0)
Jay Stanley,我可以使用xargs
为Junwon Lee的命令添加别名,如下所示:
alias gpu_user_usage="nvidia-smi -q -x | grep pid | sed -e 's/<pid>//g' -e 's/<\/pid>//g' -e 's/^[[:space:]]*//' | xargs ps -up"
(由于声誉限制,我无法发表评论...)
答案 5 :(得分:0)
正如罗伯特的评论所暗示的那样,这个答案 https://stackoverflow.com/a/51406093/2160809 建议使用 gpustat,我发现它真的很有帮助
gpustat -up
[0] NVIDIA GeForce GTX 1080 Ti | 90'C, 73 % | 6821 / 11178 MB | user1/732124(6817M)
[1] NVIDIA GeForce GTX 1080 Ti | 63'C, 0 % | 7966 / 11178 MB | user2/268172(1287M) user3/735496(6675M)
[2] NVIDIA GeForce GTX 1080 Ti | 66'C, 13 % | 2578 / 11178 MB | user2/268478(1287M) user2/725391(1287M)
[3] NVIDIA GeForce GTX 1080 Ti | 58'C, 0 % | 1291 / 11178 MB | user2/726058(1287M)