我阅读了有关 U-net 的文章。在那篇论文中,输出形状为 384*384,但数据集中的标签形状为 512*512(与输入形状相同)。我想知道如何定义损失函数。我在其他深度学习架构中搜索了一些实现,比如 Keras。但我发现他们使用了“填充”,所以输出形状与输入相同(512*512),损失函数只是简单的 MSE。
所以我真的很想知道关于在 Unet 中实现损失函数的方式的细节。
我阅读了有关 U-net 的文章。在那篇论文中,输出形状为 384*384,但数据集中的标签形状为 512*512(与输入形状相同)。我想知道如何定义损失函数。我在其他深度学习架构中搜索了一些实现,比如 Keras。但我发现他们使用了“填充”,所以输出形状与输入相同(512*512),损失函数只是简单的 MSE。
所以我真的很想知道关于在 Unet 中实现损失函数的方式的细节。