如本教程所述,我目前正在寻求了解神经传递。 https://pytorch.org/tutorials/advanced/neural_style_tutorial.html
也许我对cnn的理解还不是很深入,但是我不理解如何从分类模型中生成图像。例如,在代码中,他们从VGG cnn中提取图层,并使用这些图层来计算样式和内容损失。我能理解如何将{input}:layer:{output}与{content}:layer:{output}进行比较以获得分数,但是没有意义的是返回生成图像的模型。
我认为任何世代模型的工作方式都像翻译模型。您可以在其中输入示例,并学习如何对输入进行编码和解码为另一种语言。
但是,使用此CNN,我似乎无法理解他们在何处添加此解码步骤?由于此CNN仅用于分类,因此不需要额外的图层来使图像变形吗?
由conv图层返回的要素图是否总是与输入图像中的形状相同?它们是否将样式模型返回的特征与内容模型返回的特征相结合,并使用它们来生成图像?
另外请注意,我在某处读取了生成的图像作为随机噪声开始的信息?我不明白如何从随机噪声中绘制任何特征。