0

这是我的模型。我使用 TensorFlow 2.4.1。

model = tf.keras.Sequential([
    tf.keras.layers.Embedding(input_dim=1000,
                              output_dim=64,
                              name='embedding',
                              mask_zero=True),
    tf.keras.layers.Bidirectional(tf.keras.layers.LSTM(32)),
    tf.keras.layers.Dense(16, activation='relu'),
    tf.keras.layers.Dense(4, name='logits')
])

metrics = [tf.keras.metrics.SparseCategoricalAccuracy()]

# compile the model
model.compile(optimizer='adam',
              loss=tf.keras.losses.SparseCategoricalCrossentropy(from_logits=True),
              metrics=metrics)

当我运行以下代码时,我得到None渐变 wrt 输入。

def compute_gradients(t, target_class_idx):
    with tf.GradientTape() as tape:
        tape.watch(t)
        logits = model(t)
        probs = tf.nn.softmax(logits, axis=-1)[:, target_class_idx]
    grads = tape.gradient(probs, t)
    return grads

这是一个示例输入,以及调用

sample_tensor = tf.random.uniform(shape=(1, 50))

path_gradients = compute_gradients(
    t=sample_tensor,
    target_class_idx=0)

print(path_gradients)

None

我究竟做错了什么 ?

谢谢

4

1 回答 1

0

TensorFlow 中的Embedding层是不可微分的。来源:https ://github.com/keras-team/keras/issues/12270

于 2021-07-28T19:51:48.993 回答