我在 PyTorch 中有一个顺序模型:
model = nn.Sequential(
nn.Embedding(alphabet_size, 64),
nn.LSTM(64, ...),
nn.Flatten(),
nn.Linear(...),
nn.Softmax()
)
我想强制批量大小嵌入层:
nn.Embedding(alphabet_size, 64)
如在 Keras 中:
Embedding(alphabet_size, 64, batch_input_shape=(batch_size, time_steps)))
怎么做?