当我尝试在会话中运行以下功能时,我遇到了问题。它应该在func_seq上执行求和,并且在每一代中,它使用内置最小化函数的Tensorflow最小化代码中的其他位置。
是否有任何理由为什么每一代都显示为"无"?我尝试在eval函数中的总和之后打印,但没有运气。任何帮助将非常感激。
def eval(func_seq):
sum = tf.reduce_sum(func_seq)
sum_tensor = tf.convert_to_tensor(sum, dtype=tf.float32)
return sum_tensor
这是我执行代码时得到的结果:
Input: [ 1.46641091e-01 1.49433703e+05 3.90815163e+01 1.88019681e+00
1.38264828e+05 1.40512295e+01 2.62794423e+00 4.28223938e-01
3.13967906e+05]
None
None
None
None
None
None
None
None
None
None
Execution time: 0.12505006790161133 seconds
答案 0 :(得分:0)
解决方案是运行最小化功能"训练" (在其他地方声明)在会话中,并帮助可视化程序中的每一代我在打印语句中调用该方法。
# Declared outside of session
train = optimizer.minimize(eval(func_seq))
...
# Declared in session
sess.run(train)
print("Generation", x, ": ", sess.run(eval(func_seq)))