根据文档,tf.keras.activations.relu(x, alpha=0.0, max_value=None, threshold=0)
似乎在 [threshold, max_value] 内剪辑 ,但必须指定。如何使用它来裁剪神经网络中层的输出?或者有更方便的方法吗?x
x
假设我只想在结果介于 0 和 5 之间时输出 10×10 2D 数组的所有元素的线性组合。
import tensorflow as tf
from tensorflow import keras
model = keras.models.Sequential()
model.add(keras.layers.Flatten(input_shape=[10, 10]))
model.add(keras.layers.Dense(1, activation='relu') # output layer