6

对于我的强化学习应用程序,我需要能够应用自定义渐变/最小化不断变化的损失函数。根据文档,应该可以使用 Optimizer.minimize() 函数。但是,我的 pip 安装版本似乎根本没有此功能。

我的代码:

from tensorflow.python.keras.optimizers import Adam, SGD
print(tf.version.VERSION)
optim = Adam()
optim.minimize(loss, var_list=network.weights)

输出:

2.0.0-alpha0
Traceback (most recent call last):
  File "/Users/ikkamens/Library/Preferences/PyCharmCE2018.3/scratches/testo.py", line 18, in <module>
    optim.minimize(loss, var_list=network.weights)
AttributeError: 'Adam' object has no attribute 'minimize'
4

1 回答 1

5

其实还是有区别的。如果你打印这两个类,你会看到:

from tensorflow.python.keras.optimizers import Adam

print(Adam)
print(tf.optimizers.Adam)

<class 'tensorflow.python.keras.optimizers.Adam'>
<class 'tensorflow.python.keras.optimizer_v2.adam.Adam'>

所以在第一种情况下,亚当继承自其他类。它打算在 Keras 训练循环中使用,因此,它没有最小化方法。为了确保,让我们获取所有类方法

import inspect
from tensorflow.python.keras.optimizers import Adam

print(inspect.getmembers(Adam(), predicate=inspect.ismethod))

输出显示这个类甚至没有最小化

于 2019-04-01T17:01:16.623 回答