问题标签 [mean-square-error]
For questions regarding programming in ECMAScript (JavaScript/JS) and its various dialects/implementations (excluding ActionScript). Note JavaScript is NOT the same as Java! Please include all relevant tags on your question; e.g., [node.js], [jquery], [json], [reactjs], [angular], [ember.js], [vue.js], [typescript], [svelte], etc.
python - 如何计算线性回归模型的训练误差和验证误差?
我有一个线性回归模型,我的成本函数是平方和误差函数。我已将我的完整数据集拆分为三个数据集:训练、验证和测试。我不确定如何计算训练误差和验证误差(以及两者之间的差异)。
训练误差是使用训练数据集计算的残差平方和吗?
我要问的一个例子:所以如果我在 Python 中这样做,假设我在训练数据集中有 90 个数据点,那么这是训练错误的正确代码吗?
python - 使用 Scikit Learn 时均方误差很大
我一直在用我的 MSE 解决这个问题,同时用回归进行预测。我尝试构建的不同回归模型遇到了同样的问题。
问题是,我的 MSE 是巨大的。确切地说是83661743.99。我的 R 平方是 0.91,这似乎没有问题。
我在 Andrew Ng 的斯坦福 ML 课程中手动实现了成本函数和梯度下降,并且我有一个合理的成本函数;但是当我尝试使用 SKLearn lib 来实现它时,MSE 就不同了。我不知道我做错了什么,我需要一些帮助来检查它。
这是我使用的数据集的链接:https ://www.kaggle.com/farhanmd29/50-startups
我的代码:
scikit-learn - 是negative_mean_squared 越大,精度越高,还是计算越少,精度越高?
-0.567 -4.235
以上负均方误差值哪个计算更准确?
pytorch - 张量 a (10) 的大小必须与非单例的张量 b (9) 的大小相匹配
我早些时候在 Jupiter 笔记本中使用此代码它没有显示错误但准确性非常低然后我在 google colab 中尝试了相同的代码它显示错误,请提出一些提高准确性的方法。我正在尝试执行多级 CNN 来检测具有图像下采样的叶子
tensorflow - 当数据长度 > 批量大小时,tf.keras mean_squared_error 奇怪的返回
MSE 作为顺序模型中的损失函数,当数据长度 > 批量大小时无法正常工作。
让我们从数据长度 < 32 开始。在这种情况下它工作正常,接下来我们将对数据中的另外 3 个值执行相同的操作。
首先我们获取数据,然后计算 MSE,然后运行我们的简单序列模型的一个 epoch,损失函数 = MSE。我们将在这里看到损失函数返回是正确的。
在第二步中,我们将使用另外 3 个值再次执行此操作。模型返回的 MSE 会有所不同。
我们做的完全一样,但是我们用 33 个值代替了 30 个值。当然权重是随机值
这是我的问题。为什么,当数据长度 > 批量大小时,我们无法通过 MSE 获得正确的值作为顺序模型中的损失函数?
如果我使用 MAE 代替 MSE,它可以正常工作,当数据>批量大小时,模型返回的值是正确的。
它与批量大小有关。当数据长度 < 32 时,它工作正常(总是),但当它 > 32 时,每次 MSE 都会失败
javascript - 我的梯度下降它没有收敛。有人知道我的错误是什么吗?
我是第一次测试机器学习。我只使用梯度下降和成本函数。我有两个变量。我希望能够在估算 x 值时预测 ay 值。但现在,我无法让梯度下降接近零。我弄乱了 alpha 和初始的 theta 值,我无法到达任何地方,我觉得我把它编程错了。这是我的代码:
python - 将 csv 文件值与均方误差进行比较
我有 2 个 csv 文件,其中一个由 1 列和 27 行(仅包含数字)组成,我想逐行比较这 2 个 csv 文件,取均方误差并打印每次比较的结果,这样我就可以计算平均值最后的均方误差。我正在使用 pandas 和 sklearn 任何帮助都非常感谢。先感谢您。
python - Lasso 中的均方误差 (MSE) 和 Python 中的岭回归
我实际上是同时为一个数据集编写 Ridge 回归和 LASSO 回归,最后我试图绘制这两种方法的性能图和错误 (MSE)。
为了性能,我使用了命令linear_model.ridge.score()
并linear_model.lasso.score()
从 sklearn 导入。当我绘制图表时,它似乎保持在0
and之间似乎没问题1
,但是当我尝试分别计算两者的 MSE 时,它变成一个很大的数字,即798,768
(完整列表)等但我也需要介于两者之间的错误0
等等1
当我绘制它时,我可以将它与性能进行比较....
所以我的问题是:
有什么方法可以将这种类型的列表转换为 0 到 1 之间的数字而不会丢失信息?
numpy - 如何在不循环的情况下使用 NumPy 在 Python 中逐行应用均方误差
我正在构建一个原始神经网络来模拟与门。损失函数是 MSE:
下面有一个prediction和期望的输出(又名标签):
每一行(在上述两个矩阵中)都表示一个案例。我想像这样将所有案例保持在一起,而不是将它们分成向量。问题是,我需要单独处理每一行。
我试图得到以下结果,但我不能:
我尝试了以下功能...
但它不起作用,因为“欲望”是作为整个矩阵传递的,而不是一次传递一行。那么,有没有办法在不改变“mse 函数”实现或循环的情况下实现这一点?
python - 对于变分自动编码器,重建损失应该计算为图像的总和还是平均值?
我正在关注这个变分自动编码器教程:https ://keras.io/examples/generation/vae/ 。
我知道VAE的损失函数包括比较原始图像和重建的重建损失,以及KL损失。但是,我对重建损失以及它是在整个图像(平方差之和)还是每个像素(平方差的平均和)上有点困惑。我的理解是重建损失应该是每像素(MSE),但我遵循的示例代码将 MSE 乘以28 x 28
MNIST 图像尺寸。那是对的吗?此外,我的假设是这会使重建损失项显着大于 KL 损失,我不确定我们是否想要这样。
我尝试通过 (28x28) 删除乘法,但这导致重建极差。无论输入如何,基本上所有的重建看起来都是一样的。我可以使用 lambda 参数来捕获 kl 散度和重建之间的权衡,或者它不正确,因为损失具有精确的推导(而不是仅仅添加正则化惩罚)。