1

我在安装 keras 时遇到问题。以下内容给我带来了太多麻烦(即使在终端上进行更新):

from keras.layers import Dense, Activation
from keras.models import Sequential

ann = Sequential()因此,我不使用 初始化 ANN,而是使用ann = tf.keras.models.Sequential()。这通过导入:

import tensorflow as tf
from tensorflow import keras

我想使用 LeakyReLU 作为激活函数。然而,这个实现起来似乎有所不同,与其他人的做法相比,keras 文档对我的帮助并不大。

我已经看到需要 ann.add(LeakyReLU(alpha=0.05)) 。但是,其他参数如 unit 或 input_dim 呢?如何使用我的代码实现这一点?

# Initialising the ANN
ann = tf.keras.models.Sequential()

# Adding the input layer and the first hidden layer
ann.add(tf.keras.layers.Dense(units=32, activation='relu'))

# Adding the second hidden layer
ann.add(tf.keras.layers.Dense(units=32, activation='relu'))

# Adding the output layer
ann.add(tf.keras.layers.Dense(units=1))
4

2 回答 2

1

要在层中使用 LeakyReLU,您可以这样做:

ann.add(tf.keras.layers.Dense(
  units=32, activation=tf.keras.layers.LeakyReLU(alpha=0.3)))
于 2021-08-18T20:51:56.837 回答
1

首先你可以导入Sequential,直接使用DenseandActivationfrom tensorflow.keras.models import Sequentialfrom tensorflow.keras.layers import Dense, Activation

你可以LeakyReLU这样实现:

from tensorflow import keras

model = keras.models.Sequential([
    keras.layers.Dense(10),
    keras.layers.LeakyReLU(alpha=0.05)
])

您可以在keras 文档LeakuReLU中声明层后指定激活函数。

于 2021-08-18T20:53:24.437 回答