问题标签 [k-fold]
For questions regarding programming in ECMAScript (JavaScript/JS) and its various dialects/implementations (excluding ActionScript). Note JavaScript is NOT the same as Java! Please include all relevant tags on your question; e.g., [node.js], [jquery], [json], [reactjs], [angular], [ember.js], [vue.js], [typescript], [svelte], etc.
python - 如何对多输入模型进行 kfold 交叉验证
模型如下:
问题:
1) 数据为921rows x 10166columns
。每行都是一个观察值(前 10080 列是时间序列,其余列是其他统计特征)。根据模型,输入数据是随机拆分的inputs_1
吗?inputs_2
2)我正在考虑进行 kfold 交叉验证并将输入数据拆分为inputs_1
and inputs_2
。有什么好方法可以做到这一点?谢谢
python - 为什么我使用交叉验证分数得到零分?
当我使用 10 折交叉验证运行此处理时,预测结果与标签数据完全相反,我得到零准确度。我无法解决为什么会这样?
machine-learning - 如果 K 折交叉验证中的 K 太小怎么办?
使用与数据集相比太小的 K 值会产生什么后果?
python - GridSearchCV 拟合后是否返回 best_estimator_?
假设我们使用 GridSearch 调整 SVM,如下所示:
然后,您希望在cross_val_score
. 我的问题是,目前是哪种型号grid
?它是表现最好的吗?换句话说,我们能不能做
或者我们应该使用
当我同时运行两者时,我发现它们返回的分数不同,所以我很好奇这里的正确方法是什么。(我会假设使用best_estimator_
。)不过,这引发了另一个问题,即: 那么,使用 just grid
use 作为模型是什么?第一个?
python - 如何对所有 10 折(培训和测试)应用交叉验证?
我有这段代码,我想对所有折叠(测试和训练)应用 10 折交叉验证,下面的代码仅适用于一折。如何为所有折叠编写一个循环(9 折用于训练,1 折用于测试,循环用于所有折叠)?
此代码没有任何错误,但仅针对(测试为 1 倍,训练为 9 倍)应用了 10 倍交叉验证。
machine-learning - 为什么我们在 KFold 交叉验证后需要 .fit
如果交叉验证在训练数据上训练我们的模型 k 次,那么为什么我们需要 fit 方法。
当我使用下面的代码
我需要使用 .fit 才能使用 .predict。但为什么 ?当交叉验证已经在训练数据上训练我的模型时。
machine-learning - K-folds 我们还需要实现 train_test_split 吗?
我读了很多书,对k-folds有点困惑。我理解它背后的概念,但我不确定如何部署它。
我在数据探索之后看到的通常步骤是train_test_split
,对训练集进行编码和缩放fit_transform
,并在测试哪些算法有效之前拟合测试集。之后他们调整超参数。
因此,如果我现在要使用 k-folds,我是否应该避免使用 train_test_split?我们在哪些地方使用 k 折叠?
谢谢!
r - 线性回归:将完整模型中的 R2 与 k 折交叉验证下的 R2 进行比较
下面是执行以下操作的 R 代码: 1. 为线性回归生成数据(4 个预测变量,多元正态数据,基于相关矩阵) 2. 使用插入符号运行 10 倍交叉验证,提供汇总 R2 结果 *3。将所有折叠的预测值与实际值相关联,然后将其平方以获得交叉验证的 R2——这是下面代码中的变量“ar2”。
*所以我的问题是上面的#3:为什么插入符号不只计算这个?相反,它报告每个折叠内的 R2,解释折叠间 R2 的可变性等。但如果我想知道基于交叉折叠的整体样本外预测,似乎上面的#3 更直接。
python - 如何使用 cross_val_score() 保留 kfold 的评估分数
我想更清楚地了解 kfold以及在将其作为交叉验证方法实施后如何选择最佳模型。
根据这个来源:https://machinelearningmastery.com/k-fold-cross-validation/
进行kfold的步骤是:
- 随机打乱数据集
- 将数据集拆分为 k 个组
对于每个唯一组:
将组作为保留或测试数据集
将剩余的组作为训练数据集
在训练集上拟合模型并在测试集上对其进行评估
保留评估分数并丢弃模型
4.使用模型评估分数的样本总结模型的技能
但是,我有一个关于这个过程的问题。
保留评估分数 并丢弃模型应该是什么意思?你怎么做呢?
经过我的研究,我相信它可能与 sklearn 方法有关cross_val_score()
,但是当我尝试实现它时,通过将 my 传递model
给它,它会引发下一个错误:
文件“D:\ProgramData\Miniconda3\envs\Env_DLexp1\lib\site-packages\joblib\parallel.py”,第 797 行,dispatch_one_batch 任务 = self._ready_batches.get(block=False) _queue.Empty
在处理上述异常的过程中,又出现了一个异常:
根据文档https://scikit-learn.org/stable/modules/generated/sklearn.model_selection.cross_val_score.html,第一个参数cross_val_score()
必须是估计器,他们将其定义为“实现‘拟合’的估计器对象。用于拟合数据的对象。”
因此,我无法理解异常。
这是我的代码的相关部分:
我将不胜感激您能给我的任何帮助。请考虑到我不是数据科学家或开发人员。