我问自己下面的代码是只做梯度下降的一步还是做整个梯度下降算法?
opt = tf.keras.optimizers.SGD(learning_rate=self.learning_rate)
opt = tf.keras.optimizers.SGD(learning_rate=self.learning_rate)
train = opt.minimize(self.loss, var_list=[self.W1, self.b1, self.W2, self.b2, self.W3, self.b3])
您需要在您确定的梯度下降中执行许多步骤。但我不确定是否opt.minimize(self.loss, var_list=[self.W1, self.b1, self.W2, self.b2, self.W3, self.b3])
正在执行所有步骤而不是执行梯度下降的一步。为什么我认为它会执行所有步骤?因为在那之后我的损失为零。