我以前已经使用预训练的VGG网络实现了感知损失。在我的生成网络中,它为视觉保真度带来了巨大的福音。
但是,VGG图像网络的尺寸最高为224x224。对于我要训练的网络,我需要截取更大的图像,因为重要的数据到某一部分可能与另一部分相距很远。我不想在图像网络外部进行预处理时缩小图像的尺寸,因为我的数据有很多细线,这些细线可能会在缩小尺寸时被破坏。由于我的网络是完全卷积的,因此降级和上采样甚至是2048x2048网络都还不到10 MB,所以我希望在不丢失分辨率的情况下。
如何训练网络,使您可能造成更大的感知损失?对于GAN,我通常会有一个“对/错”的分类器,但是在这种情况下,我什至不知道如何对它进行分类。我只希望一般形状在视觉上类似于训练的真相,这就是感知损失要尝试做的事情。