keras/activation.py 中定义的 Relu 函数是:
def relu(x, alpha=0., max_value=None):
return K.relu(x, alpha=alpha, max_value=max_value)
它有一个 max_value 可用于裁剪该值。现在如何在代码中使用/调用它?我尝试了以下方法:(a)
model.add(Dense(512,input_dim=1))
model.add(Activation('relu',max_value=250))
assert kwarg in allowed_kwargs, 'Keyword argument not understood:
' + kwarg
AssertionError: Keyword argument not understood: max_value
(二)
Rel = Activation('relu',max_value=250)
同样的错误
(C)
from keras.layers import activations
uu = activations.relu(??,max_value=250)
这样做的问题是它期望输入出现在第一个值中。错误是'relu() 需要至少 1 个参数(1 个给定)'
那么我该如何做这个图层呢?
model.add(activations.relu(max_value=250))
有同样的问题'relu() 需要至少 1 个参数(1 个给定)'
如果此文件不能用作图层,那么似乎无法为 Relu 指定剪辑值。这意味着此处的评论https://github.com/fchollet/keras/issues/2119关闭提议的更改是错误的......有什么想法吗?谢谢!