0

autoML 在时钟上停止。我比较了两个自动 ML,其中一个使用另一个必须做出相同预测的子集,并且在 3600 秒运行时,更完整的模型看起来更好。我重复了 5000 秒的重新运行,子集模型看起来更好。他们交换了位置,这不应该发生。

我认为是收敛。 有没有办法跟踪堆叠集成学习器的收敛历史以确定它们是否相对稳定? 我们有用于并行和串行 CART 合奏的功能。我不明白为什么异构合奏不会做同样的事情。

我有大量数据,尤其是交叉验证,我不想认为差异是因为训练集与验证集随机抽取。

我在相对高性能的硬件上运行,所以我不认为这是“运行时间太短”。我的“所有”型号数量在数百到一千之间,物有所值。

4

0 回答 0