标签: tensorflow gpgpu
我使用GEFORCE GTX 1080 ti(11GB)的tf-seq2seq软件包训练NMT模型。在训练模型期间,执行nvidia-smi表明,当所有CPU核心都忙时,GPU的易失性利用率始终低于25%。为什么呢?
nvidia-smi
如何充分利用GPU的所有潜力?
答案 0 :(得分:1)
上述实验中的模型太小,无法充分利用GPU的所有潜力。
扩大模型(利用更多层次,增加使用中的词汇量,增加序列长度......),可以在上述实验中获得更好的利用率(低于80-90%)。