按照PyTorch 文档中的示例,我试图解决填充不一致的问题,而不是在每个批次的张量末尾(换句话说,没有双关语,我有一个左删失和右删失问题我的批次):
# Data structure example from docs
seq = torch.tensor([[1,2,0], [3,0,0], [4,5,6]])
# Data structure of my problem
inconsistent_seq = torch.tensor([[1,2,0], [0,3,0], [0,5,6]])
lens = ...?
packed = pack_padded_sequence(seq, lens, batch_first=True, enforce_sorted=False)
当使用(最好)PyTorch 功能通过 LSTM 运行它们时,如何解决掩盖这些填充 0 的问题?