我有一个(1, 224, 224, 3)
名为content_image
. 那就是 VGG 网络输入的大小。
当我转移content_image
到 VGG 网络的输入时,如下图所示:
model = vgg19.VGG19(input_tensor=K.variable(content_image), weights='imagenet', include_top=False)
for layer in model .layers:
if layer.name == 'block5_conv2':
model_output = layer.output
这似乎产生了以下规模的输出[0, 1]
:
[0.06421799 0.07012904 0. ... 0. 0.05865938
0. ]
[0.21104832 0.27097407 0. ... 0. 0.
0. ] ...
另一方面,当我根据keras 文档应用以下方法时(使用 VGG19 从任意中间层提取特征):
from keras.models import Model
base_model = vgg19.VGG19(weights='imagenet'), include_top=False)
model = Model(inputs=base_model.input, outputs=base_model.get_layer('block5_conv2').output)
model_output = model.predict(content_image)
这种方法似乎产生不同的输出。
[ 82.64436 40.37433 142.94958 ... 0.
27.992153 0. ]
[105.935936 91.84446 0. ... 0.
86.96397 0. ] ...
这两种方法都使用具有相同权重的相同网络,并传输相同的 numpy 数组 ( content_image
) 作为输入,但它们产生不同的输出。我希望他们应该产生相同的结果。