我正在尝试实现一篇关于语义分割的论文,但我对如何对分割网络生成的预测图进行上采样以匹配输入图像大小感到困惑。
例如,我使用 Resnet101 的一个变体作为分割网络(如本文所用)。使用这种网络结构,大小为 321x321(本文再次使用)的输入会生成大小为 41x41xC(C 是类数)的最终预测图。因为我必须进行像素级预测,所以我需要将其上采样到 321x321xC。Pytorch 提供向上采样的功能,输出大小是预测图大小的倍数。所以,我不能在这里直接使用那个方法。
因为这一步涉及到每个语义分割网络,我相信应该有一个标准的方法来实现它。
我会很感激任何指示。提前致谢。