我正在 Pytorch 中训练单个多层网络。完成此过程后,我必须在第一次训练中获得的某些值上训练 N 个小型(1 隐藏层)网络。我想知道是否可以在同一个 GPU 上并行训练这些网络,因为这可以节省我相当多的时间。
所以,假设我有 N 个网络,如下所示:
countKey = { e -> (e instanceof Map ? [e] : e).count { it.key1 } }
countKey(test01)
countKey(test02)
必须在 N 个不同的输入上进行训练。有没有办法同时做到这一点?