我有一个非常简单的模型,其中包含一个tf.Variable()
,下面是谁的代码:
import tensorflow as tf
save_path="model1/model1.ckpt"
num_input = 2
n_nodes_hl1 = 2
with tf.variable_scope("model1"):
hidden_1_layer = {
'weights' : tf.Variable(tf.random_normal([num_input, n_nodes_hl1]), name='Weight1')
}
def train_model():
init = tf.global_variables_initializer()
with tf.Session() as sess:
sess.run(init)
save_model(sess)
def save_model(sess):
saver = tf.train.Saver(tf.global_variables(), save_path)
saver.save(sess, save_path)
def load_model(sess):
saver = tf.train.Saver(tf.global_variables(), save_path)
saver.restore(sess, save_path)
def run_model():
print("model1 running...")
with tf.Session() as sess:
load_model(sess)
x = sess.run(hidden_1_layer)
print(x)
#train_model()
第二个模型完全相同,但是名称从“ model1”更改为“ model2”。两种模型都经过培训,保存并分别完美工作。所以现在我想使用以下脚本对其进行测试:
import model1 as m1
import model2 as m2
m1.run_model()
m2.run_model()
在这里,我收到一条错误消息:
NotFoundError (see above for traceback): Key model2/Weight2 not found in checkpoint
因此,似乎运行导入会导致将所有变量添加到通用图形(即使它们在单独的变量范围内),然后无法从保存在model1的检查点中的model2中找到变量。 谁能解决我的问题? Tensorflow是否可以在一个脚本中运行几个不同的模型?
编辑-问题已解决
解决方案非常简单。您要做的是为每个模型创建单独的图形。这意味着您声明或计算的所有张量都必须在该图中。您还必须将其作为Session中的参数,例如:tf.Session(graph=self.graph)
整个示例如下:
import tensorflow as tf
save_path="model1/model1.ckpt"
class model1:
num_input = 2
n_nodes_hl1 = 2
def init(self):
self.graph = tf.Graph()
with self.graph.as_default():
with tf.variable_scope("model1"):
self.hidden_1_layer = {
'weights' : tf.Variable(tf.random_normal([self.num_input, self.n_nodes_hl1]), name='Weight1')
}
def train_model(self):
init = tf.global_variables_initializer()
with tf.Session(graph = self.graph) as sess:
sess.run(init)
self.save_model(sess)
def save_model(self, sess):
saver = tf.train.Saver(tf.global_variables(), save_path)
saver.save(sess, save_path)
def load_model(self, sess):
saver = tf.train.Saver(tf.global_variables(), save_path)
saver.restore(sess, save_path)
def run_model(self):
print("model1 running...")
with tf.Session(graph = self.graph) as sess:
self.load_model(sess)
x = sess.run(self.hidden_1_layer)
print(x)
答案 0 :(得分:3)
哦!常见的“我想使用多个模型”问题!只需确保在每个模型后重置图形即可:
tf.reset_default_graph()
您的代码如下:
import tensorflow as tf
import model1 as m1
m1.run_model()
tf.reset_default_graph()
import model2 as m2
m2.run_model()
为什么??当您使用tf.Variable
在tensorflow中创建变量时,该变量将添加到默认图形中。如果您一个接一个地导入两个模型,则只需在默认图形中创建所有变量!到目前为止,这是最简单的解决方案。考虑默认图作为黑板:您可以绘制自己喜欢的ML模型,但在重新使用之前需要将其擦干净!
注意:如果您想知道,另一种方法是为每个模型创建单独的图,但这要担心得多,我只建议您在必须具有两种模型同时。
在避免几个图形的同时(更糟糕的是,它太可怕了!)的一种更好的实现方法是将整个模型封装在一个类中。因此,您的代码将如下所示:
import tensorflow as tf
class model():
self.num_input = 2
self.n_nodes_hl1 = 2
def init(self, new_save_path)
self.save_path=new_save_path
tf.reset_default_graph()
with tf.variable_scope("model1"):
self.hidden_1_layer = {
'weights' : tf.Variable(tf.random_normal([self.num_input,
self.n_nodes_hl1]), name='Weight1')
}
self.saver = tf.train.Saver(tf.global_variables(), self.save_path)
self.sess = tf.Session()
self.sess.run(tf.global_variables_initializer())
def save_model(self):
self.saver.save(self.sess, self.save_path)
def load_model(self):
self.saver.restore(self.sess, self.save_path)
def run_model(self):
print("model1 running...")
load_model()
x = sess.run(self.hidden_1_layer)
print(x)
#train_model(self)
通过这种方式,您可以轻松做到:
import model
m1 = model('model1/model1.ckpt') # These two lines could be put into one
m1.run_model() # m1 = model('model1/model1.ckpt').run_model()
m2 = model('model2/model2.ckpt')
m2.run_model()
您仍要在 for 循环中使用它吗?
import model
model_file_list = ['model1/model1.ckpt', 'model2/model2.ckpt']
for model_file in model_list:
m = model(model_file ).run_model()
# Run tests, print stuff, save stuff here!