13

假设我想使用 LinearSVC 对数据集执行 k-fold-cross-validation。我将如何对数据进行标准化?

我读过的最佳实践是在训练数据上建立标准化模型,然后将此模型应用于测试数据。

当使用一个简单的 train_test_split() 时,这很容易,因为我们可以这样做:

X_train, X_test, y_train, y_test = train_test_split(X, y, stratify=y)

clf = svm.LinearSVC()

scalar = StandardScaler()
X_train = scalar.fit_transform(X_train)
X_test = scalar.transform(X_test)

clf.fit(X_train, y_train)
predicted = clf.predict(X_test)

在进行 k-fold-cross-validation 时如何标准化数据?问题来自这样一个事实,即每个数据点都将用于训练/测试,因此您无法在 cross_val_score() 之前标准化所有内容。对于每个交叉验证,您不需要不同的标准化吗?

文档没有提到函数内部发生的标准化。我是索尔吗?

编辑:这篇文章非常有帮助:Python - sklearn.pipeline.Pipeline 到底是什么?

4

1 回答 1

19

您可以使用Pipeline来组合这两个进程,然后将其发送到 cross_val_score()。

当在fit()管道上调用时,它将一个接一个地拟合所有转换并转换数据,然后使用最终估计器拟合转换后的数据。并且在predict()(仅当管道中的最后一个对象是估计器时才可用,否则transform())它将对数据应用转换,并使用最终估计器进行预测。

像这样:

scalar = StandardScaler()
clf = svm.LinearSVC()

pipeline = Pipeline([('transformer', scalar), ('estimator', clf)])

cv = KFold(n_splits=4)
scores = cross_val_score(pipeline, X, y, cv = cv)

查看管道的各种示例以更好地理解它:

如有任何疑问,请随时询问。

于 2017-06-09T01:09:29.460 回答