我需要使用图形的输出作为深度学习项目的另一个输入,然后优化两个图形的所有变量。每个图的输入都是占位符。
我的问题与此处讨论的问题非常相似:Tensorflow: How to replace a node in a calculation graph?
不幸的是,由于我当时收到的错误以及当时指出的错误,问题仍未得到解决。我将发布我的案例
这是一个实际执行琐碎计算的示例程序
with tf.Graph().as_default() as g_1:
input_1 = tf.placeholder(tf.float32, shape=[3,3], name="input")
weight1 = tf.Variable(tf.truncated_normal([3, 3], stddev=0.1), name="weight")
y = tf.matmul(input_1,weight1)
# NOTE: using identity to get a known name for the output tensor.
output1 = tf.identity(y, name="output")
gdef_1 = g_1.as_graph_def()
with tf.Graph().as_default() as g_2: # NOTE: g_2 not g_1
input_2 = tf.placeholder(tf.float32, shape=[3,3], name="input")
weight2 = tf.Variable(tf.truncated_normal([3, 3], stddev=0.1), name="weight")
z = tf.matmul(input_2, weight2)
output2 = tf.identity(z, name="output")
gdef_2 = g_2.as_graph_def()
然后我在另一个图中导入两个图:
with tf.Graph().as_default() as g_combined:
x = tf.placeholder(tf.float32, shape=[3,3], name="input_matrix")
# Import gdef_1, which performs f(x).
# "input:0" and "output:0" are the names of tensors in gdef_1.
y, = tf.import_graph_def(gdef_1, input_map={"input:0": x},
return_elements=["output:0"])
# Import gdef_2, which performs g(y)
z, = tf.import_graph_def(gdef_2, input_map={"input:0": y},
return_elements=["output:0"])
cost = tf.reduce_sum(tf.square(z-x))
variables = [op.outputs[0] for op in tf.get_default_graph().get_operations() if op.type == "Variable"]
print (variables)
optimizer = tf.train.AdamOptimizer(0.01).minimize(cost,var_list = variables)
这是之前链接问题中建议的解决方案,但它会出现以下错误:
TypeError: Argument is not a tf.Variable: Tensor("import/weight:0", dtype=float32_ref)
变量variables
包含:
[<tf.Tensor 'import/weight:0' shape=<unknown> dtype=float32_ref>, <tf.Tensor 'import_1/weight:0' shape=<unknown> dtype=float32_ref>]
有谁知道如何让它发挥作用?或者如何优化整个结构,考虑到我需要一个中间结果来提供占位符?
非常感谢
答案 0 :(得分:0)
执行此操作的最佳方法不是替换图形,而是最初构建一个图形,其中包含所需图形的并集中的所有节点,以及用于训练独立和关节模型的子图形。然后通过保存和加载单个变量,您应该能够共同优化事物。