1

我在深度学习项目中使用 keras 调谐器来拟合超参数。
因为超参数的组合很多,即使使用 GPU 也需要超过 24 小时才能运行。为了获得可重复的结果,我们在运行训练之前修复了随机状态(numpy 和 tensorflow 的种子)。

我想知道是否有一种简单的方法可以将调整搜索分成几个步骤,以便我们可以在每晚运行它(例如,将它分成 3 部分,每 8 小时运行一次)。因此,如果有 300 次试验,我们希望在第一晚运行前 100 次试验,第二晚运行 100 到 200 次试验,最后在最后一晚运行最后 100 次试验。
我尝试搜索如何配置特定的 trial_id(使用 kera_tuner.tuners.random_search 的函数 populate_state),以便我对该配置进行培训,但我没有找到如何使用它。

提前感谢您的回答。

4

1 回答 1

0

maybe I did not understood the question, but if problem is time comsumption , why not use hyperband instead of random search ?

EDIT : also there is a chapter in link about distributed tuning . Or you could split your hyperparameters list into 3 or 4 HyperParameters object and run them one per night (like the example in link

于 2021-08-18T16:44:03.910 回答