在同一个 GPU 上并行训练多个神经网络

时间:2021-02-15 19:33:34

标签: deep-learning parallel-processing pytorch

我正在 Pytorch 中训练单个多层网络。完成此过程后,我必须在第一次训练中获得的某些值上训练 N 个小型(1 隐藏层)网络。我想知道是否可以在同一个 GPU 上并行训练这些网络,因为这可以节省我相当多的时间。

所以,假设我有 N 个网络,如下所示:

countKey = { e -> (e instanceof Map ? [e] : e).count { it.key1 } }

countKey(test01)
countKey(test02)

必须在 N 个不同的输入上进行训练。有没有办法同时做到这一点?

0 个答案:

没有答案
相关问题