1

我试图Relu在构建我的神经网络时更改激活函数的阈值。

因此,初始代码是下面写的,其中 relu 阈值的默认值为 0。

model = Sequential([
    Dense(n_inputs, input_shape=(n_inputs, ), activation = 'relu'),
    Dense(32, activation = 'relu'),
    Dense(2, activation='softmax')
])

但是,Keras 提供了相同的功能实现,可以在此处引用并添加屏幕截图。

在此处输入图像描述

因此,我将我的代码更改为以下代码以传递自定义函数,但结果却出现以下错误。

from keras.activations import relu
model = Sequential([
    Dense(n_inputs, input_shape=(n_inputs, ), activation = relu(threshold = 2)), 
    Dense(32, activation = relu(threshold = 2)),
    Dense(2, activation='softmax')
])

错误: TypeError: relu() missing 1 required positional argument: 'x'

我理解错误是我没有在 relu 函数中使用 x 但我无法通过类似的东西。语法要求我写model.add(layers.Activation(activations.relu)),但我将无法更改阈值。这是我需要解决方法或解决方案的地方。

然后我使用了ReLU 函数的 Layer 实现,它对我有用,如下所示,但我想知道是否有一种方法可以使激活函数实现工作,因为添加层并不总是很方便,我想制作Dense 函数内部的更多修改。

对我有用的代码:-

from keras.layers import ReLU
model = Sequential([
    Dense(n_inputs, input_shape=(n_inputs, )),
    ReLU(threshold=4), 
    Dense(32),
    ReLU(threshold=4),
    Dense(2, activation='softmax')
])
4

1 回答 1

1

您面临的错误是合理的。但是,您可以在该功能上使用以下技巧relu来完成您的工作。通过这种方式,您定义了一个带有必要参数的函数,例如alphathreshold,并且在函数体中,您定义了另一个relu 使用这些参数计算激活的函数,最后返回到上层函数。

# help(tf.keras.backend.relu)
from tensorflow.keras import backend as K
def relu_advanced(alpha=0.0, max_value=None, threshold=0):        
    def relu_plus(x):
        return K.relu(x, 
                      alpha = tf.cast(alpha, tf.float32), 
                      max_value = max_value,
                      threshold= tf.cast(threshold, tf.float32))
    return relu_plus

样品:

foo = tf.constant([-10, -5, 0.0, 5, 10], dtype = tf.float32)
tf.keras.activations.relu(foo).numpy()
array([ 0.,  0.,  0.,  5., 10.], dtype=float32)

x = relu_advanced(threshold=1)
x(foo).numpy()
array([-0., -0.,  0.,  5., 10.], dtype=float32)

对于您的情况,只需按以下方式使用:

model = Sequential([
    Dense(64, input_shape=(32, ), activation = relu_advanced(threshold=2)), 
    Dense(32, activation = relu_advanced(threshold=2)),
    Dense(2, activation='softmax')
])
于 2021-05-08T18:42:20.730 回答