1

我试图通过 GRU 放置一个打包和填充的序列,并检索每个序列的最后一项的输出。当然,我指的不是该-1项目,而是实际的最后一个未填充的项目。我们事先知道序列的长度,因此应该像为每个序列提取length-1项目一样容易。

我尝试了以下

import torch
from torch.nn.utils.rnn import pack_padded_sequence, pad_packed_sequence

# Data
input = torch.Tensor([[[0., 0., 0.],
                       [1., 0., 1.],
                       [1., 1., 0.],
                       [1., 0., 1.],
                       [1., 0., 1.],
                       [1., 1., 0.]],

                      [[1., 1., 0.],
                       [0., 1., 0.],
                       [0., 0., 0.],
                       [0., 1., 0.],
                       [0., 0., 0.],
                       [0., 0., 0.]],

                      [[0., 0., 0.],
                       [1., 0., 0.],
                       [1., 1., 1.],
                       [0., 0., 0.],
                       [0., 0., 0.],
                       [0., 0., 0.]],

                      [[1., 1., 0.],
                       [0., 0., 0.],
                       [0., 0., 0.],
                       [0., 0., 0.],
                       [0., 0., 0.],
                       [0., 0., 0.]]])

lengths = [6, 4, 3, 1]
p = pack_padded_sequence(input, lengths, batch_first=True)

# Forward
gru = torch.nn.GRU(3, 12, batch_first=True)
packed_output, gru_h = gru(p)

# Unpack
output, input_sizes = pad_packed_sequence(packed_output, batch_first=True)

last_seq_idxs = torch.LongTensor([x-1 for x in input_sizes])

last_seq_items = torch.index_select(output, 1, last_seq_idxs) 

print(last_seq_items.size())
# torch.Size([4, 4, 12])

但形状不是我所期望的。我曾期望得到4x12,即last item of each individual sequence x hidden

我可以遍历整个事情,并构建一个包含我需要的项目的新张量,但我希望有一种利用一些智能数学的内置方法。我担心手动循环和构建会导致性能很差。

4

2 回答 2

3

而不是最后两个操作last_seq_idxslast_seq_items你可以做last_seq_items=output[torch.arange(4), input_sizes-1].

我不认为index_select是在做正确的事。它将在您传递的索引处选择整个批次,因此您的输出大小为 [4,4,12]。

于 2019-03-28T16:04:53.850 回答
1

Umang Gupta 回答的更详细的替代方案:

# ...
output, input_sizes = pad_packed_sequence(packed_output, batch_first=True)
# One per sequence, with its last actual node extracted, and unsqueezed
last_seq = [output[e, i-1, :].unsqueeze(0) for e, i in enumerate(input_sizes)]
# Merge them together all sequences together to get batch
last_seq = torch.cat(last_seq, dim=0)
于 2019-03-28T18:07:32.557 回答