标签: python gpu cpu pytorch
据我所见,大多数人似乎正在初始化整个模型,然后将整个事情发送到GPU。但是我的神经网络模型太大了,无法完全适合我的GPU。是否可以将模型保存在ram中,但在GPU上运行所有操作?
答案 0 :(得分:1)
我认为这是不可能的。但是,一种简单的解决方法是将模型分为多个部分,这些部分将与批处理输入一起放入gpu内存中。
重复1到3,直到你达到你的模型最终输出。