我试图Relu
在构建我的神经网络时更改激活函数的阈值。
因此,初始代码是下面写的,其中 relu 阈值的默认值为 0。
model = Sequential([
Dense(n_inputs, input_shape=(n_inputs, ), activation = 'relu'),
Dense(32, activation = 'relu'),
Dense(2, activation='softmax')
])
但是,Keras 提供了相同的功能实现,可以在此处引用并添加屏幕截图。
因此,我将我的代码更改为以下代码以传递自定义函数,但结果却出现以下错误。
from keras.activations import relu
model = Sequential([
Dense(n_inputs, input_shape=(n_inputs, ), activation = relu(threshold = 2)),
Dense(32, activation = relu(threshold = 2)),
Dense(2, activation='softmax')
])
错误: TypeError: relu() missing 1 required positional argument: 'x'
我理解错误是我没有在 relu 函数中使用 x 但我无法通过类似的东西。语法要求我写model.add(layers.Activation(activations.relu))
,但我将无法更改阈值。这是我需要解决方法或解决方案的地方。
然后我使用了ReLU 函数的 Layer 实现,它对我有用,如下所示,但我想知道是否有一种方法可以使激活函数实现工作,因为添加层并不总是很方便,我想制作Dense 函数内部的更多修改。
对我有用的代码:-
from keras.layers import ReLU
model = Sequential([
Dense(n_inputs, input_shape=(n_inputs, )),
ReLU(threshold=4),
Dense(32),
ReLU(threshold=4),
Dense(2, activation='softmax')
])