最近,我想实现GAN模型并使用tf.Dataset和Iterator来读取面部图像作为训练数据。
数据集和迭代器对象的代码是:
self.dataset = tf.data.Dataset.from_tensor_slices(convert_to_tensor(self.data_ob.train_data_list, dtype=tf.string))
self.dataset = self.dataset.map(self._parse_function)
#self.dataset = self.dataset.shuffle(buffer_size=10000)
self.dataset = self.dataset.apply(tf.contrib.data.batch_and_drop_remainder(batch_size))
self.iterator = tf.data.Iterator.from_structure(self.dataset.output_types, self.dataset.output_shapes)
self.next_x = self.iterator.get_next()
我的新GAN模型是:
self.z_mean, self.z_sigm = self.Encode(self.next_x)
self.z_x = tf.add(self.z_mean, tf.sqrt(tf.exp(self.z_sigm))*self.ep)
self.x_tilde = self.generate(self.z_x, reuse=False)
#the feature
self.l_x_tilde, self.De_pro_tilde = self.discriminate(self.x_tilde)
#for Gan generator
self.x_p = self.generate(self.zp, reuse=True)
# the loss of dis network
self.l_x, self.D_pro_logits = self.discriminate(self.next_x, True)
所以,问题是我使用self.next_x作为输入张量两次。每次的数据集都不同。那么,如何解决这个问题以保持第一批重用?
答案 0 :(得分:1)
我在代码中使用的是以下内容,其中 x 和 y_true 是占位符。不确定是否有更高效的实现。
images, labels = session.run(next_element)
batch_accuracy = session.run(accuracy, feed_dict={x: images, y_true: labels, keep_prop: 1.0})
batch_predicted_probabilities = session.run(y_pred, feed_dict={x: images, y_true: labels, keep_prop: 1.0})
我目前正在尝试使用tf.placeholder_with_default
代替x和y_true的普通占位符来检查它是否在我的项目中提供了更好的性能。如果我设法很快得到任何结果,将编辑我的答案让你知道:)。
修改强> 我切换到了placeholder_with_default并且每批次没有明显的速度提升,至少在我测量它的方式上。