我希望将此处可用的现有预训练 mxnet 模型之一转换为完全卷积模型。
这意味着能够输入任意大小的图像、指定步幅并获得完整的输出。例如,假设模型是在 224x224x3 图像上训练的。我想输入一个 226x226x3 的图像并指定 stride=1,以获得 3x3xnum-classes 输出。我不是在“理论上”问,而是在问一个示例代码:-)
谢谢!
根据这个例子:https ://github.com/dmlc/mxnet-notebooks/blob/master/python/tutorials/predict_imagenet.ipynb
您可以在绑定模型时更改数据形状:
mod.bind(for_training=False, data_shapes=[('data', (1,3,226,226))])
然后你可以输入一个 3 * 226 * 226 的图像。
另一个例子: http: //mxnet.io/how_to/finetune.html
此示例将预训练模型的最后一层替换为 fc 层。