标签: deep-learning gpu pytorch
我正在研究变分自动编码器(VAE),用于从数据集中解开变异特征。为了做到这一点,在定义损耗函数时分别使用VAE的编码和解码层;因为数据集中具有相同标签的两个图像的公因子被替换。使用这种方法,在我的模型上使用DataParallel时只使用一个GPU。我已经在我当前的设置上训练了其他模型,成功使用了两个GPU。我怎么能纠正这个?我还在pytorch的讨论页面上找到了一个有点相关的问题,但没有任何答案here。