我不确定是问这个问题的正确地方,如果我需要删除帖子,请随时告诉我。
我是 pyTorch 的新手,目前正在使用 CycleGAN(pyTorch 实现)作为我项目的一部分,并且我了解 cycleGAN 的大部分实现。
我阅读了名为“CycleGAN with better Cycles”的论文,我正在尝试应用论文中提到的修改。修改之一是循环一致性权重衰减,我不知道如何应用。
optimizer_G.zero_grad()
# Identity loss
loss_id_A = criterion_identity(G_BA(real_A), real_A)
loss_id_B = criterion_identity(G_AB(real_B), real_B)
loss_identity = (loss_id_A + loss_id_B) / 2
# GAN loss
fake_B = G_AB(real_A)
loss_GAN_AB = criterion_GAN(D_B(fake_B), valid)
fake_A = G_BA(real_B)
loss_GAN_BA = criterion_GAN(D_A(fake_A), valid)
loss_GAN = (loss_GAN_AB + loss_GAN_BA) / 2
# Cycle consistency loss
recov_A = G_BA(fake_B)
loss_cycle_A = criterion_cycle(recov_A, real_A)
recov_B = G_AB(fake_A)
loss_cycle_B = criterion_cycle(recov_B, real_B)
loss_cycle = (loss_cycle_A + loss_cycle_B) / 2
# Total loss
loss_G = loss_GAN +
lambda_cyc * loss_cycle + #lambda_cyc is 10
lambda_id * loss_identity #lambda_id is 0.5 * lambda_cyc
loss_G.backward()
optimizer_G.step()
我的问题是如何逐渐减轻循环一致性损失的权重?
任何帮助实施此修改将不胜感激。
这来自论文:循环一致性损失有助于在早期阶段大量稳定训练,但在后期阶段成为现实图像的障碍。我们建议随着训练进度逐渐衰减循环一致性损失 λ 的权重。但是,我们仍然应该确保 λ 不会衰减到 0,这样生成器就不会变得不受约束并完全疯狂。
提前致谢。