1

根据文档tf.keras.activations.relu(x, alpha=0.0, max_value=None, threshold=0)似乎在 [threshold, max_value] 内剪辑 ,但必须指定。如何使用它来裁剪神经网络中层的输出?或者有更方便的方法吗?xx

假设我只想在结果介于 0 和 5 之间时输出 10×10 2D 数组的所有元素的线性组合。

import tensorflow as tf
from tensorflow import keras

model = keras.models.Sequential()
model.add(keras.layers.Flatten(input_shape=[10, 10]))
model.add(keras.layers.Dense(1, activation='relu')    # output layer
4

0 回答 0