我一直在寻找互联网上的解决方案,但无法在Python上找到解决方法。
我需要做的是:我有几个不同的TensorFlow模型训练过来执行相同的任务;这些模型具有不同的结构,但共享相同的接口以进行查询 - 在C ++ API上,我可以这样做
Status status = session_->Run(feed_dict, {"output_I_want"}, {}, &outputs);
所有这些模型没有问题。
然而,当我尝试用Python做同样的事情时,似乎我在网上找到的所有保存/恢复教程都要求我在尝试恢复之前首先声明模型中使用的变量。在我的项目中,我只需要将模型用作黑盒子,只需要查询[feed_dict - >输出]的方式。我想知道是否有办法用Python做到这一点。
答案 0 :(得分:1)
将this answer视为saving and restoring a metagraph的实际示例。这应该回答你的帖子的后半部分,如果你将它与检查点结合起来,你在用例中可能只需要命名输入和输出。