通过元图导入微调模型时的共置错误

时间:2018-06-10 20:35:41

标签: python-3.x tensorflow

我有LSTM对我已保存的某些数据进行了培训,并通过tf.train.import_meta_graph在另一个文件中导入,重要的一点是原始图表中有一个tf.nn.embedding_lookup操作。

当我尝试将op RMSPropOptimizer(learning_rate).minimize(loss)添加到我的图表时,我收到一个主机托管错误,指出导入图表中嵌入单词的RMSProp操作无法与所需的主机托管组共存。

我尝试在clear_devices=True电话上设置import_meta_graph,并在RMSProp定义周围使用with tf.device('/cpu:0'):

我一直坚持如何继续。

编辑:目前我只是训练一个叠加在导入模型之上的模型,但我更愿意能够微调导入的模型。

0 个答案:

没有答案