我正在尝试遵循http://www.hackevolve.com/where-cnn-is-looking-grad-cam/上的指南,使用 Tensorflow 的新急切执行模式。特别是一行让我难住了:
grads = K.gradients(class_output, last_conv_layer.output)[0]
我知道它正在寻找最后一个卷积层和特定类的输出之间的梯度。但是,我无法弄清楚如何使用 来完成此操作GradientTape
,因为 (a) 两者都是张量而不是变量,并且 (b) 一个不是直接从另一个派生的(它们的特征图已经存在,因此如果没有图表,它们实际上是独立的)。
编辑:更多信息。还没有人回答,所以我会继续添加自发布问题以来我尝试过的内容:
显而易见的步骤是使用 Eager 执行重现第一部分。
import numpy as np
import cv2
import tensorflow as tf
tf.enable_eager_execution()
model = tf.keras.models.load_model("model.h5")
print(type(model))
# tensorflow.python.keras.engine.sequential.Sequential
from dataset import prepare_dataset
_, ds, _, _, _, _ = prepare_dataset() # ds is a tf.data.Dataset
print(type(ds))
# tensorflow.python.data.ops.dataset_ops.DatasetV1Adapter
it = train_ds.make_one_shot_iterator()
img, label = it.get_next()
print(type(img), img.shape)
# <class 'tensorflow.python.framework.ops.EagerTensor'> (192, 192, 3)
print(type(label), label.shape)
# <class 'tensorflow.python.framework.ops.EagerTensor'> (2,)
img = np.expand_dims(img, axis=0)
print(img.shape)
# (1, 192, 192, 3)
predictions = model.predict(img)
print(predictions)
# array([[0.9711799 , 0.02882008]], dtype=float32)
class_idx = np.argmax(predictions[0])
print(class_idx)
# 0
class_output = model.output[:, class_idx]
print(model.output, class_output)
# Tensor("Softmax:0", shape=(?, 2), dtype=float32) Tensor("strided_slice_5:0", dtype=float32)
# I use tf.keras.layers.Activation instead of the activation parameter of conv2d,
# so last_conv_layer actually points to the layer after the last conv layer.
# Is that not correct?
last_conv_layer = model.get_layer('activation_6')
"""
Now, the fun part: how do I compute the gradient of class_output with respect to
the output of the last convolutional layer?
"""
一种尝试是使用 reduce_sum 和 multiply 来获得所需的梯度(忽略该class_output
步骤):
with tf.GradientTape() as tape:
print(label)
# tf.Tensor([1. 0.], shape=(2,), dtype=float32)
y_c = tf.reduce_sum(tf.multiply(model.output, label))
print(y_c)
# Tensor("Sum_4:0", shape=(), dtype=float32)
last_conv_layer = model.get_layer('activation_6')
grad = tape.gradient(y_c, last_conv_layer.output)
但是,grad
在None
此设置中。