我将Keras Tuner视为一种进行超参数优化的方法,但我看到的所有示例都显示了一个全新的模型正在定义中。例如,来自 Keras Tuner Hello World:
def build_model(hp):
model = keras.Sequential()
model.add(layers.Flatten(input_shape=(28, 28)))
for i in range(hp.Int('num_layers', 2, 20)):
model.add(layers.Dense(units=hp.Int('units_' + str(i), 32, 512, 32),
activation='relu'))
model.add(layers.Dense(10, activation='softmax'))
model.compile(
optimizer=keras.optimizers.Adam(
hp.Choice('learning_rate', [1e-2, 1e-3, 1e-4])),
loss='sparse_categorical_crossentropy',
metrics=['accuracy'])
return model
我已经有一个想要调整的模型,但这是否意味着我必须用拼接到身体的超参数重写它,如上所述,或者我可以简单地将超参数传递给顶部的模型?例如像这样:
def build_model(hp):
model = MyExistingModel(
batch_size=hp['batch_size'],
seq_len=hp['seq_len'],
rnn_hidden_units=hp['hidden_units'],
rnn_type='gru',
num_rnn_layers=hp['num_rnn_layers']
)
optimizer = optimizer_factory['adam'](
learning_rate=hp['learning_rate'],
momentum=0.9,
)
model.compile(
optimizer=optimizer,
loss='sparse_categorical_crossentropy',
metrics=['sparse_categorical_accuracy'],
)
return model
据我所知,上述方法似乎有效。模型初始化参数都通过一个HyperParameters
实例传递给内部 TF 层,并从那里访问......虽然我不太确定如何传递它......我认为可以通过预定义一个HyperParameters
对象和将其传递给调谐器,然后将其传递给build_model
:
hp = HyperParameters()
hp.Choice('learning_rate', [1e-1, 1e-3])
tuner = RandomSearch(
build_model,
max_trials=5,
hyperparameters=hp,
tune_new_entries=False,
objective='val_accuracy')
在内部,我的模型有两个 RNN(LSTM 或 GRU)和一个 MLP。但是我还没有遇到过一个 Keras Tuner build_model
,它采用这样的现有模型,只需传入超参数。该模型非常复杂,我想避免重新定义它(以及避免代码重复)。