0

我正在寻找一种方法来网格搜索 sklearn 中的超参数,而不使用 K 折验证。即,我希望我的网格在特定数据集(下例中的 X1,y1)上进行训练,并在特定的保留数据集(下例中的 X2,y2)上验证自己。

X1,y2 = 训练数据
X2,y2 = 验证数据

clf_ = SVC(kernel='rbf',cache_size=1000)
Cs = [1,10.0,50,100.0,]
Gammas = [ 0.4,0.42,0.44,0.46,0.48,0.5,0.52,0.54,0.56]
clf = GridSearchCV(clf_,dict(C=Cs,gamma=Gammas),
                 cv=???, # validate on X2,y2
                 n_jobs=8,verbose=10)
clf.fit(X1, y1)
4

2 回答 2

1

使用hypoptPython 包 ( pip install hypopt)。这是一个专业的包,专为使用验证集进行参数优化而创建。它适用于任何开箱即用的 scikit-learn 模型,也可以与 Tensorflow、PyTorch、Caffe2 等一起使用。

# Code from https://github.com/cgnorthcutt/hypopt
# Assuming you already have train, test, val sets and a model.
from hypopt import GridSearch
param_grid = [
  {'C': [1, 10, 100], 'kernel': ['linear']},
  {'C': [1, 10, 100], 'gamma': [0.001, 0.0001], 'kernel': ['rbf']},
 ]
# Grid-search all parameter combinations using a validation set.
opt = GridSearch(model = SVR(), param_grid = param_grid)
opt.fit(X_train, y_train, X_val, y_val)
print('Test Score for Optimized Parameters:', opt.score(X_test, y_test))
于 2018-06-28T20:33:45.727 回答
0
clf = GridSearchCV(clf_,dict(C=Cs,gamma=Gammas),cv=???, # validate on X2,y2,n_jobs=8,verbose=10)
  1. n_jobs>1 没有任何意义。如果 n_jobs=-1 表示处理将使用您机器上的所有内核。如果它是 1,则只使用一个核心。

  2. 如果 cv =5 它将为每次迭代运行五次交叉验证。

  3. 在您的情况下,迭代总数将为 9(Cs 大小)*5(伽马大小)*5(CV 值)

    1. 如果您使用交叉验证,则保留数据以重新检查您的模型没有任何意义。如果您对性能没有信心,您可以增加 cv 以获得更好的拟合。

这将非常耗时,尤其是对于 SVM,我宁愿建议您使用 RandomSearchCV,它允许您提供您希望模型随机选择的迭代次数。

于 2016-07-04T09:12:45.237 回答