如何在每次迭代中使用ScipyOptimizerInterface
对输入域的不同样本优化损失函数?
我目前正在使用tf.train.AdamOptimizer
进行操作,下面是我正在做的简化形式。
optimizer = tf.train.AdamOptimizer().minimize(loss)
for _ in range(M):
input_1, input_2 = sampling_function()
for _ in range(N):
loss, _ = sess.run([loss, optimizer],
feed_dict={x1: input_1,
x2: input_2})
但是,由于SciPy界面将会话和feed字典都作为输入,因此我无法适应上面的代码并使它以相同的方式工作。