在这个简化的示例中,我正在使用 GridSearchCV 训练逻辑回归。与往常一样,我希望模型能够很好地泛化,因此我想仔细查看测试集的结果。使用 GridSearchCV 时,我找不到简单的方法来做到这一点。
lr_pipeline = Pipeline([('clf', LogisticRegression())])
lr_parameters = {'clf__fit_intercept':[True,False]}
lr_gs = GridSearchCV(lr_pipeline, lr_parameters)
lr_gs = lr_gs.fit(X,y)
lr_gs.best_estimator_.test_set # would like to be able to do something like this
我想进一步分析模型未训练的示例(例如查看他们的混淆矩阵),但由于交叉验证是透明地发生的,我无法选择这些示例。我可以进行新的训练测试拆分并重新训练,但这似乎很浪费。