我有一个(1, 224, 224, 3)
大小的content_image
大小的numpy数组。这就是VGG网络输入的大小。
当我将content_image
转移到VGG网络的输入时,如下所示:
model = vgg19.VGG19(input_tensor=K.variable(content_image), weights='imagenet', include_top=False)
for layer in model .layers:
if layer.name == 'block5_conv2':
model_output = layer.output
这似乎产生了[0, 1]
规模的产出:
[0.06421799 0.07012904 0. ... 0. 0.05865938
0. ]
[0.21104832 0.27097407 0. ... 0. 0.
0. ] ...
另一方面,当我基于keras documentation应用以下方法时(使用VGG19从任意中间层提取特征):
from keras.models import Model
base_model = vgg19.VGG19(weights='imagenet'), include_top=False)
model = Model(inputs=base_model.input, outputs=base_model.get_layer('block5_conv2').output)
model_output = model.predict(content_image)
这种方法似乎产生不同的输出。
[ 82.64436 40.37433 142.94958 ... 0.
27.992153 0. ]
[105.935936 91.84446 0. ... 0.
86.96397 0. ] ...
两种方法都使用具有相同权重的相同网络,并传输相同的numpy数组(content_image
)作为输入,但是它们产生的输出却不同。我希望他们会产生相同的结果。
答案 0 :(得分:1)
我认为,如果在第一种方法中使用Keras创建的会话(隐式),您将获得相同的结果:
Marker
我认为,通过创建一个新会话并使用this@save
和sess = K.get_session()
with sess.as_default():
output = model_output.eval()
print(output)
,您可以更改变量的值。通常,请勿创建新会话,而应使用Keras创建的会话(除非您有充分的理由这样做)。