标签: tensorflow memory tensorflow-serving
当我使用nvidia-smi命令时,我可以在进程部分看到Tensorflow Serving分配了多少内存。有没有一种方法可以检查加载的模型实际使用了多少?我怎么知道是否还有一些可用内存来加载下一个模型?
nvidia-smi