不在张量流中传递占位符的值,为什么不允许?

时间:2016-11-15 16:48:37

标签: tensorflow

我有3个模型使用相同的输入,但产生3个独特的输出(1个分类器,2个回归)。 3 I中的2个组合成1个具有2个损失函数的模型,并且在准确度/ RMSE方面看到了显着的改进。

我正在尝试将第3个损失函数组合到模型中,因此我有1个模型,其中3个损失函数共享许多参数。

第三种损失功能仅适用于一半的数据。我测试了将标签标准化为0均值单位方差,并将0用于不适用于损失函数C的标签,但在某些情况下偏向结果为0。

我现在正在尝试对损失函数A& amp;进行交替优化。 B与来自完整数据集的批次以及所有3个损失函数A,B和& C具有适合于损失C(和A& B)的批次。在我的问题的背景下,这是合乎逻辑的。

我的问题:

  • Tensorflow要求传入图中定义的所有占位符。但是,我没有在此特定优化步骤中使用该张量。这是预期的行为吗?我应该传递一个虚拟变量来安抚TF吗?我想知道我是否错过了一个重要的细节。

1 个答案:

答案 0 :(得分:1)

依赖是与tensorboard,我对所有损失函数进行了汇总操作,强制执行它们。

我使用tf.add_to_collection()将我的摘要操作拆分为组以收集不同的摘要操作,然后使用for循环将它们添加到张量列表中以进行处理。

就是那个和另外一个依赖只是我发现的一个bug。 @Sygi和@Fake是正确的,你不应该传递一个在特定计算中没有使用的值,因为它存在于图中。