在 keras 文档中,函数keras.activations.relu(x, alpha=0.0, max_value=None, threshold=0.0)
定义为:
f(x) = max_value for x >= max_value,
f(x) = x for threshold <= x < max_value,
f(x) = alpha * (x - threshold) otherwise.
我做了一个小测试alpha=0.01
,我得到的threshold=5.0
输出max_value=100.0
是.x=5.0
f(x)=0.0
如果我没记错的话,既然x == threshold
,我应该得到f(x)=x=5.0
。
谁能解释一下?
谢谢,
- 朱利安