标签: deep-learning
我正在使用深度生成神经网络从事多媒体增强任务。我只能使用一个11 GB的GPU,我真的想加快研究速度。我目前正在使用深残留的GAN,所有GPU内存的批处理大小均为8。
我想尝试使用不同的体系结构,但是每个单独的试验至少需要3天。我有一个想法,可以通过减少模型大小,批处理大小或输入大小来并行比较多个模型。找到最佳性能的模型后,就可以进行扩展。这是一个坏主意吗?还有什么其他方法?