我在许多文章和书籍中观察到,模型选择是在模型调整之前完成的。
模型选择通常使用某种形式的交叉验证来完成,例如 k-fold,其中计算多个模型的指标并选择最佳的一个。
然后调整所选模型以获得最佳超参数。
但我的问题是,未选择的模型在正确的超参数下可能会表现得更好。
那么为什么不是我们感兴趣的所有模型都被调整以获得正确的超参数,然后通过交叉验证选择最佳模型。
我在许多文章和书籍中观察到,模型选择是在模型调整之前完成的。
模型选择通常使用某种形式的交叉验证来完成,例如 k-fold,其中计算多个模型的指标并选择最佳的一个。
然后调整所选模型以获得最佳超参数。
但我的问题是,未选择的模型在正确的超参数下可能会表现得更好。
那么为什么不是我们感兴趣的所有模型都被调整以获得正确的超参数,然后通过交叉验证选择最佳模型。
这取决于每篇文章/书籍中遵循的实验设置,但简而言之,在同一实验中执行模型选择 + 超参数优化的正确方法是使用嵌套交叉验证:
您可以查看this other question以了解有关此验证方案的更多信息。
但是请注意,在某些情况下,只对所有模型进行一般比较是可以接受的,然后只优化表现最好的模型。但是,在一项严格的研究中,这远非理想。