所以,我一直在研究 Pytorch 中的神经风格迁移,但我被困在我们必须通过有限数量的层运行输入图像并最大限度地减少风格损失的地步。长话短说,我想在 Pytorch 中找到一种方法来评估架构不同层的输入(我使用的是 vgg16)。我已经看到这个问题在 keras 中非常简单地解决了,但我想看看 pytorch 中是否也有类似的方法。
from keras.applications.vgg16 import VGG16
model = VGG16()
model = Model(inputs=model.inputs, outputs=model.layers[1].output)