问题标签 [early-stopping]

For questions regarding programming in ECMAScript (JavaScript/JS) and its various dialects/implementations (excluding ActionScript). Note JavaScript is NOT the same as Java! Please include all relevant tags on your question; e.g., [node.js], [jquery], [json], [reactjs], [angular], [ember.js], [vue.js], [typescript], [svelte], etc.

0 投票
0 回答
59 浏览

python - 如何添加“编码器-解码器序列到序列模型的早期停止代码”

我需要您的帮助来添加使用现有验证数据集的代码并添加测试数据集,我还需要一个用于提前停止的代码。

此处使用的代码用于训练,我需要使用它进行验证并提前停止并对其进行测试。

0 投票
1 回答
26 浏览

python - 与 Adam 一起训练的 Keras 过早停止

我第一次在回归问题上使用 Keras。我设置了一个提前停止回调,以耐性=3 监控 val_loss(均方误差)。然而,即使 val_loss 在最后几个 epoch 中减少,训练也会停止。要么我的代码中存在错误,要么我无法理解回调的真正含义。谁能明白发生了什么?我在下面提供训练进度和模型构建代码。

如下所示,训练在 epoch 8 停止,但 val_loss 自 epoch 6 以来一直在下降,我认为它应该继续运行。只有一次 val_loss 增加(从 epoch 5 到 6),耐心为 3。

模型构建如下:

在尝试了一些超参数(例如激活函数)后,我一直遇到同样的问题。不过,它并不总是在 epoch 8 停止。我也尝试改变耐心。

详细信息:Ubuntu 18.04 Tensorflow 2.6.0 Python 3.8.5

0 投票
1 回答
41 浏览

tensorflow - Tensorflow EarlyStopping 过早停止

我有以下早期停止,但它停止得太快了。我想知道它是否在val_ndcg_metric减少时考虑损失改善(不应该是这种情况,因为 ndcg 越大越好)。

结果如下:

我将不胜感激对此的任何想法。

0 投票
0 回答
27 浏览

performance - 如何在所有交叉验证折叠中控制来自 XGBoost 的 n_estimators

我正在使用自定义交叉验证方法调整 XGBoost 回归器的参数。我使用的参数之一是树的数量(n_estimators),我也使用 early_stopping_rounds,所以训练可以停止。

问题是最后,在交叉验证期间,我对每个折叠都有一个不同的分类器。例如,假设我正在使用 n_estimators=100 和 early_stopping_rounds=20 进行训练;一方面,我可以在不提前停止的情况下完成训练,但在下一次迭代中,训练可能在第 30 次迭代时停止,n_estimators=30。

我应该如何进行?

0 投票
0 回答
43 浏览

r - R XGBoost 提前停止

下面我有代码,其中我试图在 R 中训练一个 XGBoost 模型,该模型在给定轮数后提前停止early_stopping_rounds而没有改进。

但是,我不想固定轮数,而是传递一个min_delta值,因此当轮数之间的差异低于给定的容差时,提前停止就会启动。

其他人(此处此处)已针对 Python 提出了此问题。然而,不久前的进步已经为 Python 实现了这个选项

但是我如何在 R 中解决这个问题?有没有类似的东西?

0 投票
1 回答
141 浏览

python - 如何提前停止套索回归

我有个问题。有没有提前停止的选项?因为我在一个情节上看到一段时间后我会过拟合,所以我想得到最优化的。

0 投票
1 回答
42 浏览

python - Scipy 优化算法:提前停止

我想知道如何触发 scipy 优化算法的提前停止,如差分进化、双重退火和盆地跳跃。

我知道你可以调用一个返回 True 或 False 的回调函数,但是,我想知道当适应度函数在几个迭代中收敛到相同的值时如何触发整个算法停止。例如,如果 maxiter 设置为 250,但适应度函数在 100 次迭代时收敛,当它不再进行任何改进时,我如何触发它停止?

0 投票
0 回答
30 浏览

deep-learning - 在最佳结果/时期停止神经网络/LSTM

我正在使用基于 LSTM 的神经架构来解决预测问题,以下代码行将给出一个想法:

我得到以下训练和验证错误图: 在此处输入图像描述

最佳解决方案出现在 epoch=1200,但由于我需要在循环中一次又一次地运行这个预测模型,我想以自动化/程序化的方式达到这一点。我尝试过提前停止,但由于训练/验证错误最初有点波动(在图中不是很明显),它在几个时期后停止了。

有什么建议么?

0 投票
0 回答
44 浏览

tensorflow - 使用 Keras Hyperband 进行调优时,“耐心”计数会重置

我正在keras-tuner使用 Hyperband 来执行神经网络的超参数优化:

我将EarlyStopping回调定义为:

通过设置max_epochs=100,我注意到(在 Hyperband 算法期间)特定模型的训练不是一次性执行的,而是通过步骤(“ Runnning trials”)执行的。

  1. 首先,模型从 epoch1到 epoch进行训练3
  2. 其次,从一个时代4到另一个时代7
  3. 然后,从813;
  4. 然后,从1425;
  5. 然后,从2650;
  6. 最后,从51100

因此,在每次“Running trial”结束时,Keras 都会保存训练状态,以便在下一次“Running trial”时继续该状态的训练。

通过设置patience=15

我注意到 EarlyStopping 回调在 "Running trial" 期间停止了训练5),特别是在 epoch 41(EarlyStopping 能够运行的第一个 epoch,因为:)start_epoch + patience = 26 + 15 = 41

然后,训练在 "Running trial" 中继续6),EarlyStopping 在 epoch 停止训练66(因此,在 epoch: start_epoch + patience = 51 + 15 = 66)。

因此:

  • 即使 EarlyStopping 在试跑过程中停止训练5),训练在试跑过程中继续6)
  • 耐心计数,在每次“运行试验”开始时自行重置(我认为它应该在 epoch 开始1并且永远不应该自行重置)。

使用 Keras Hyperband 进行调整时,耐心计数会在每次“运行试验”开始时自动重置,这是正常/预期的行为吗?

0 投票
0 回答
19 浏览

python-3.x - “ValueError:对于提前停止,至少需要一个数据集和评估指标进行评估”来自 lightgbm.cv

这段代码我用了很久,一直有效,但这次不知道。


我无法检查的一件事是它工作时的 lightgbm 版本,但当前版本是 3.1.1

xy_train 是 Pandas 数据框,折叠是正确生成的。如果可能的话,我需要 early_stopping_rounds arg 仍然不是 None 以免影响整个模块化代码的其他部分。


提前感谢您的友好回答或评论:)