1

我在 PyTorch 中有一个顺序模型:

model = nn.Sequential(
        nn.Embedding(alphabet_size, 64),
        nn.LSTM(64, ...),
        nn.Flatten(),
        nn.Linear(...),
        nn.Softmax()
    )

我想强制批量大小嵌入层:

nn.Embedding(alphabet_size, 64)

如在 Keras 中:

Embedding(alphabet_size, 64, batch_input_shape=(batch_size, time_steps)))

怎么做?

4

1 回答 1

-1

这是您问题的答案。下面的示例已经可用

PyTorch 顺序模型和 batch_size

于 2020-11-30T15:57:19.227 回答