我正在通过 DataCamp 完成 TensorFlow 教程,并且正在转录/复制我在自己的 Jupyter 笔记本中处理的代码示例。
以下是编码问题的原始说明:
我正在运行以下代码片段,但无法得出与教程中生成的结果相同的结果,我已通过 x 与 loss_function(x) 的连接散点图确认了正确的值,如图所示再往下一点。
# imports
import tensorflow as tf
import numpy as np
import matplotlib.pyplot as plt
from tensorflow import Variable, keras
def loss_function(x):
import math
return 4.0*math.cos(x-1)+np.divide(math.cos(2.0*math.pi*x),x)
# Initialize x_1 and x_2
x_1 = Variable(6.0, np.float32)
x_2 = Variable(0.3, np.float32)
# Define the optimization operation
opt = keras.optimizers.SGD(learning_rate=0.01)
for j in range(100):
# Perform minimization using the loss function and x_1
opt.minimize(lambda: loss_function(x_1), var_list=[x_1])
# Perform minimization using the loss function and x_2
opt.minimize(lambda: loss_function(x_2), var_list=[x_2])
# Print x_1 and x_2 as numpy arrays
print(x_1.numpy(), x_2.numpy())
我绘制了一个快速连接的散点图,以确认(成功地)我使用的损失函数让我回到示例提供的同一图表(如上面的屏幕截图所示)
# Generate loss_function(x) values for given range of x-values
losses = []
for p in np.linspace(0.1, 6.0, 60):
losses.append(loss_function(p))
# Define x,y coordinates
x_coordinates = list(np.linspace(0.1, 6.0, 60))
y_coordinates = losses
# Plot
plt.scatter(x_coordinates, y_coordinates)
plt.plot(x_coordinates, y_coordinates)
plt.title('Plot of Input values (x) vs. Losses')
plt.xlabel('x')
plt.ylabel('loss_function(x)')
plt.show()
根据 DataCamp 环境,以下分别是生成的全局最小值和局部最小值:
4.38是正确的全局最小值, 0.42确实对应于图 RHS 上的第一个局部最小值(从 x_2 = 0.3 开始时)
以下是我的环境的结果,两者都与寻求最小化损失值时应该朝着的方向相反:
在过去 90 分钟的大部分时间里,我都在试图弄清楚为什么我的结果与 DataCamp 控制台的结果不一致/为什么优化器未能将这个简单玩具示例的损失降到最低……?
感谢您在自己的环境中运行提供的代码后可能提出的任何建议,非常感谢!