我想通过保留生成的示例的历史记录来稳定GAN训练,这些示例将与当前的G(x)一起继续馈入鉴别器,以防止D过度适合当前的G版本。
考虑到这些优点(例如监视,分发,设备等),我还想在Tensor2Tensor,Estimator和MonitoredTrainingSession的范式中进行此操作。
因此,该解决方案似乎并不像编写会话训练循环那样简单,该循环可以仅从sess.run()返回G(x),并将其与示例结合起来用于后续迭代。
一个好的解决方案似乎是使用tf.RandomShuffleQueue,它具有在整个G历史上保持G(x)分布的附加好处。
有人有更好的主意吗?