问题标签 [mean-square-error]
For questions regarding programming in ECMAScript (JavaScript/JS) and its various dialects/implementations (excluding ActionScript). Note JavaScript is NOT the same as Java! Please include all relevant tags on your question; e.g., [node.js], [jquery], [json], [reactjs], [angular], [ember.js], [vue.js], [typescript], [svelte], etc.
machine-learning - 为什么均方误差实际上是“平方”的,只有一个“绝对值”或模数函数才能完成工作?
成本函数也可以通过许多其他方法变为正数,最简单的存在abs(x)
或模函数,或者只是x^4
,这在计算上是昂贵的。为什么只有正方形?
python-3.x - TensorFlow:实现均方误差
我目前正在学习 TensorFlow,并遇到了这个 notebook。
我对如何实现均方误差成本函数有疑问:
我不明白为什么它必须将第一个成本函数的分母乘以 2。我从 MSE 的不同实现中得到了不同的答案,成本产生 4.5 而成本 2 产生 9。按照均方误差的公式,我应该得到一个 9 的值。但是第一个成本函数是在我试图学习的 python 笔记本中实现的。
machine-learning - 当损失是均方误差 (MSE) 时,什么函数定义 Keras 中的准确性?
当损失函数为均方误差时,准确度如何定义?它是平均绝对百分比误差吗吗?
我使用的模型具有输出激活线性,并用loss= mean_squared_error
输出如下所示:
那么例如 val_acc: 0.3250 是什么意思呢?Mean_squared_error 应该是一个标量而不是一个百分比 - 不应该吗?那么 val_acc - 均方误差,或平均百分比误差或其他函数?
根据维基百科上 MSE 的定义:https ://en.wikipedia.org/wiki/Mean_squared_error
MSE 是对估计器质量的度量——它总是非负的,接近零的值更好。
这是否意味着 的值val_acc: 0.0
优于val_acc: 0.325
?
编辑:我训练时准确度度量输出的更多示例 - 随着我训练的更多,准确度会增加。而损失函数 - mse 应该减少。是否为 mse 定义了准确度 - 在 Keras 中是如何定义的?
python - 使用 cvxopt 计算均方误差
我想使用 python 的 cvxopt 包获得最小化均方误差的 θ 估计值。经过一番挖掘,我找到了一个有用的链接,可以帮助我了解包的工作原理。但我无法将我的方程式与包裹所需的形式联系起来。
我有:
min ||y - θ.T*X||^2
我想把它变成一个形式:
θ.Τ * Q * θ + r * θ
* 其中 θ.Τ 是 θ 的转置向量, 和 y, X 是线性回归的向量 (y=θ.Τ*Χ+n)。
任何提示将不胜感激。谢谢
python-2.7 - 如何在 3D 数组上应用 mean_squared_error
我正在构建一个带有 2 个参数 $\lambda$ 和 $\alpha$ 的惩罚回归模型。我试图找到这些参数的最佳值,所以我考虑了一个不同值的网格。假设我考虑n_lambda
不同的 $\lambda$ 值和n_alpha
不同的 $\alpha$ 值。为了测试模型的性能,我考虑 $n$ 数据观察,我有我的响应变量的真实值,我计算每个参数对的这些观察的预测。
我将我的预测存储到一个维度为 的 3D 数组矩阵中(n_lambda, n_alpha, n_observations)
。这意味着[0, 0, :]
该矩阵的元素包含对 $\lambda$ 的第一个值和 $\alpha$ 的第一个值的 n 个观测值的预测。
现在我想为我的每个预测计算均方误差。我知道我可以使用嵌套的 for 循环来做到这一点,例如:
这会起作用,但嵌套 for 循环并不是真正的最佳选择。我想一定有更好的方法来得到我想要的。实际上我已经尝试过使用map
函数,但它不起作用,所以我会很感激任何建议。
python - 两个大型二维列表之间的python快速均方误差
我想计算两个非常大的二维数组之间的 mse。
预期结果是大小为 3 的向量:
至于现在,我正在使用 sklearn.metrics.mean_squared_error :
这需要很长时间,因为 xi 和 yi 的实际长度是 115,并且我在 x/y 中有超过一百万个向量。
optimization - 为什么我的卷积神经网络陷入局部最小值?
我听说机器学习算法很少陷入局部最小值,但我的 CNN(在 tensorflow 中)预测所有值的输出恒定,并且我使用均方误差损失函数,所以我认为这一定是给定的局部最小值MSE 的属性。我有一个具有 2 个卷积层和 1 个密集层(+1 个密集输出层用于回归)的网络,分别具有 24、32 和 100 个神经元,但我尝试更改层数/神经元的数量,但问题没有解决。我对隐藏层和输出层的绝对值进行了 relu 激活(我知道这并不常见,但它比仍然存在相同问题的 softplus 函数收敛到更低的 MSE 更快,我需要严格的正输出)。我在密集层和输出层之间还有一个 50% 的 dropout 层,以及两个卷积之间的一个池化层。我也尝试过改变学习率(目前为 0.0001)和批量大小。我正在使用亚当优化器。
我已经看到它建议更改/添加偏差,但我不确定如何在 tf.layers.conv2d/tf.layers.dense 中初始化它(为此我有偏差 = True),我看不到任何选项对于我用于第一层的 tf.nn.conv2d 的偏差,因此我可以轻松地初始化内核。
任何建议将不胜感激,谢谢。
这是我的网络代码部分:
我的输入是具有 12 个环境数据通道的 5x5 图像,并且我有大约 100,000 个训练样本。我目前的 MSE 是 ~90,值约为 25。
numpy - 清除 NaN 的 np 数组,同时相应地删除其他数组中的条目
我有两个 numpy 数组,其中一个包含大约 1% 的 NaN。
我想计算a
和b
使用sklearn
's的均方误差mean_squared_error
。
所以我的问题是,在尽可能有效地a
删除所有相应条目的同时删除所有 NaN 的 Pythonic 方法是什么?b
python - 如何使用多个生成的值在 python 中绘制图形?
多个均方误差的值存储在 MSE1、MSE2 和 MSE3 中,因为它们是由算法生成的。我计算了具有 7 个功能的 MSE1,具有 6 个功能的 MSE2 和具有 2 个功能的 MSE3 我必须在 MSE 和用于获取 MSE 的各个功能之间绘制图表,但使用 matplotlib 有点混乱。
任何帮助,将不胜感激