使用TensorFlow中的非随机优化器进行小批量

时间:2019-02-23 09:33:53

标签: python tensorflow optimization scipy

如何在每次迭代中使用ScipyOptimizerInterface对输入域的不同样本优化损失函数?

我目前正在使用tf.train.AdamOptimizer进行操作,下面是我正在做的简化形式。

optimizer = tf.train.AdamOptimizer().minimize(loss)

for _ in range(M):
    input_1, input_2 = sampling_function()
    for _ in range(N):
        loss, _ = sess.run([loss, optimizer],
                           feed_dict={x1: input_1, 
                                      x2: input_2})

但是,由于SciPy界面将会话和feed字典都作为输入,因此我无法适应上面的代码并使它以相同的方式工作。

0 个答案:

没有答案