0

假设我只有 1 个正面来训练分类器。有没有办法用 scikit-learn 训练一个只有一个正面的模型?(例如,类似于示例 SVM)。

目前我有以下内容:

scores = [
   ('precision', precision_score),
]

for score_name, score_func in scores:
    clf = GridSearchCV(SVC(C=1), tuned_parameters, score_func=score_func)
    clf.fit(X[train], y[train])
    y_true, y_pred = y[test], clf.predict(X[test])

但我收到以下错误:

ValueError: y 中人口最少的类只有 2 个成员,太少了。任何类的最小标签数不能小于 k=3。

4

1 回答 1

4

scikit-learn 中没有专门用于一次性学习的模型。

此外,正如您在错误消息的完整回溯中应该看到的那样,在GridSearchCV内部使用交叉验证,因此您不能在没有至少 2 个正样本的数据集上使用它。

于 2013-06-20T15:38:50.187 回答