标签: tensorflow memory gpu pytorch
当我使用pytorch / tensorflow构建我的神经网络时,我发现使用GPU时系统内存使用量增加。
使用小型Conv1d神经网络pytorch,示例代码非常简单。
当我设置use_gpu = False时,系统内存使用量仅为131M。但是,当我设置use_gpu = True时,系统内存使用量将增加到2G以上。
据我所知,使用gpu时,许多参数将固定到GPU的内存中,这意味着系统内存使用量将减少。
有人可以帮忙解释一下情况吗?