是什么导致GAN生成的图像看起来与训练集中提供的图像不同

时间:2019-07-27 09:09:37

标签: machine-learning keras deep-learning generative-adversarial-network

我已经使用keras实现了改进的 WGAN-GP算法。使用的数据集是灰度的开放式街道网络图像

一些时期之后的训练会产生不希望的(或与预期完全不同的)模式。

例如,真实图像看起来像这样(使用8x4网格绘制的32张图像) enter image description here

虽然生成的图像看起来像这样(使用8X2网格绘制的16张图像) enter image description here

注意 :在450个时期后收集,每个时期分为22批。您可以找到使用keras here

实现的模型

虽然预期结果看起来像带有车道(线和点)的道路网络,但它们看起来却像封闭的曲线(例如国家或大陆地图)

我尝试了训练GAN等大多数建议的技巧:

  1. 下降,以避免过度拟合问题
  2. 标签平滑以避免 过度自信的问题
  3. Wasserstein和梯度惩罚费用 解决模式崩溃的功能
  4. 增加的内核大小 更快的收敛
  5. 进一步训练鉴别器次数 比发电机

但是似乎没有一个起作用。我不确定如何调试此问题,因为我不知道GAN的哪个超参数会导致这种问题。

如果任何人在训练GAN时都遇到类似的问题,请帮助我了解是什么原因造成的,以及需要调整哪些超参数。

TIA。

0 个答案:

没有答案
相关问题