3

根据亚当的伪代码:

在此处输入图像描述

我写了一些代码:

from matplotlib import pyplot as plt
import numpy as np
# np.random.seed(42)
num = 100

x = np.arange(num).tolist()
# The following 3 sets of g_list stand for 3 types of gradient changes:
# g_list = np.random.normal(0,1,num)  # gradient direction changes frequently in positive and negtive 
# g_list = x  # gradient direction always positive and gradient value becomes larger gradually
g_list = [10 for _ in range(num)]  # gradient direction always positive and gradient value always the same

m = 0
v = 0
beta_m = 0.9
beta_v = 0.999
m_list = []
v_list = []

for i in range(1,num+1):
    g = g_list[i-1]
    m = beta_m*m + (1 - beta_m)*g
    m = m/(1-beta_m**i)
    v = beta_v*v + (1 - beta_v)*(g**2)
    v = v/(1-beta_v**i)
    m_list.append(m)
    v_list.append(np.sqrt(v))

mv = np.array(m_list)/(np.array(v_list) +0.001)
print("==>> mv: ", mv)
plt.plot(x, g_list, x, mv)

运行代码,我得到以下情节:

在此处输入图像描述

对我来说,我认为是反直觉的,因为我认为当梯度方向始终为正,梯度值恒定时,学习率的系数(即 mv)应该接近 1,但mv我得到的第 100是 3.40488818e-70,几乎接近于零。

如果我更改一些代码:

    # m = m/(1-beta_m**i)
    if i == 1:
      m = m/(1-beta_m**i)
    # v = v/(1-beta_v**i)
    if i == 1:
       v = v/(1-beta_v**i)

我得到的结果是这样的:

在此处输入图像描述

这更符合我的直觉。

有人可以告诉我上面的代码是否正确,如果正确,是否符合您的直觉来获得类似上面的内容?

4

1 回答 1

2

您的代码实现几乎就在那里,但是您应该注意您的实现和算法之间的一个区别是您错误地m/(1-beta_m**i)使用变量累积偏差校正项m。您应该为偏差校正分配一个单独的变量m_hat

这同样适用于v:将偏差校正值分配给另一个变量,例如v_hat

这样做将避免在m和的累积中包含偏差校正v

您的代码可以保持不变,但更改偏差校正值的计算以及附加列表。如果你这样做,你会得到你想要的结果。

for i in range(1,num+1):
    g = g_list[i-1]

    # calculate m and v
    m = beta_m*m + (1 - beta_m)*g
    v = beta_v*v + (1 - beta_v)*(g**2)

    # assign bias corrected values to m_hat and v_hat respectively
    m_hat = m/(1-beta_m**i)
    v_hat = v/(1-beta_v**i)

    # append to lists
    m_list.append(m_hat)
    v_list.append(np.sqrt(v_hat))
于 2022-02-19T22:05:29.603 回答