问题标签 [coefficient-of-determination]
For questions regarding programming in ECMAScript (JavaScript/JS) and its various dialects/implementations (excluding ActionScript). Note JavaScript is NOT the same as Java! Please include all relevant tags on your question; e.g., [node.js], [jquery], [json], [reactjs], [angular], [ember.js], [vue.js], [typescript], [svelte], etc.
scikit-learn - 了解确定系数
我正在阅读文档以了解确定系数,从文档中我了解到确定系数不过是 R x R(相关系数)
所以我从 kaggle.com 获取房价数据集并开始尝试以更好地理解,这是我的代码
取相关系数
现在,像这样取确定系数
为此,我得到了值-0.9413195412943647
理想情况下不应该是0.060531252961吗?如-0.246031 x -0.246031 = 0.060531252961
python - 使用 Python 制作 R2 图
我有两个列表中的数据。一个是真实的(观察到的),一个是预测的。
我想把它放在一个图表中,以获得两个具有不同颜色的列表以及它们之间的线条,但即使经过我所有的研究,我也不知道如何将线条放入图表中。
现在,这是我显示两个列表的代码。我不知道在哪里放置我的 r_squared 变量。
prediction - 确定系数接近-1
我正在从你们的财务处下载股票数据。我正在尝试使用 ANN 生成股票交易信号。我得到的确定系数接近-1,预测似乎是镜像。有人可以建议。
我与其他 ML 获得了类似的确定系数。
这似乎很奇怪。
python - 为什么确定系数 R² 实现会产生不同的结果?
在尝试实现用于计算决定系数 R² 的 python 函数时,我注意到根据我使用的计算顺序,我得到了截然不同的结果。
R² 上的维基百科页面对如何计算 R² 给出了看似非常清晰的解释。我对 wiki 页面上所说的内容的 numpy 解释如下:
当我使用目标向量y和模型估计向量yhat尝试此方法时,此函数产生 -0.00301 的 R² 值。
但是,从讨论如何计算 R²的这个 stackoverflow 帖子中接受的答案给出了以下定义:
使用与以前相同的y和yhat向量的方法,我现在得到 0.319 的 R²。
此外,在同一个 stackoverflow 帖子中,很多人似乎赞成使用 scipy 模块计算 R²,如下所示:
在我的情况下产生0.261。
所以我的问题是:为什么从看似广为接受的来源产生的 R² 值彼此完全不同?计算两个向量之间的 R² 的正确方法是什么?
python - SciKit Learn R-squared 与 Pearson's Correlation R 的平方非常不同
我有 2 个 numpy 数组,就像这样:
当我使用 SciKit Learn 计算 R 平方时,我得到的值与我计算 Pearson 相关然后对结果求平方时完全不同:
结果:
SciKit R2:0.15913
皮尔逊 R:(0.7617075766854164, 9.534162339384296e-05)
皮尔逊 R 平方:0.5801984323799696
我意识到,对于拟合不佳的模型( https://stats.stackexchange.com/questions/12900/when-is-r-squared-negative),R平方值有时可能为负,因此皮尔逊相关性的平方是并不总是等于 R 平方。但是,我认为对于正 R 平方值,它总是等于 Pearson 的相关平方?这些 R 平方值有何不同?
structural-equation-model - 如何使用潜在变量和 MPLUS 上观察到的协变量计算 SEM 中的 R 方
我在 MPLUS 上运行 SEM,使用一个潜在变量和两个观察变量之间的 3 向交互。
这是代码:
因为,我正在使用潜在变量运行交互,所以我必须保持 TYPE=RANDOM。这意味着我无法获得 R 平方:
“标准(STD、STDY、STDYX)选项不适用于 TYPE=RANDOM”
如果有任何方法可以计算 r-square,我将不胜感激。
谢谢 :)
python - 当我将真实值与它们的平均值进行比较时,r2_score() 获得非零值
我正在使用r2_score()
方法来评估使用 scikit learn 的回归问题。正如我们所知,我们应该得到 0.0 表示预测的决定系数 R^2。但是当我这样做时,我会得到 2.220446049250313e-16 。
这是代码
此代码段返回:
这个代码段:
还返回:
但是当我运行这个代码段时,我将测试值的平均值与它们的平均值进行比较:
我得到了值(这是一个错误):
因为,根据scikit learn 文档,它应该是 0.0。这是那里的代码片段:
我正在使用 google colaboratory 进行工作。谁能帮我弄清楚,为什么会出现错误?谢谢你。
r - glm.cluster 对象的伪 R 平方
我使用Rglm.cluster()
中的miceadds
包中的函数估计了几个具有集群鲁棒标准错误的 glms。
不幸的是,该函数不会自动计算伪 R 平方。此外,我无法找到一个包来计算与glm.cluster
. 到目前为止,我已经尝试过rcompanion
's nagelkerke()
,fmsb
'sNagelkerkeR2()
甚至psfmi
's rsq_nagel()
。
以前有没有其他人遇到过这个问题,你知道如何在不编写自己的函数的情况下解决它吗?
variables - 问:当 P(# Regressors)=N(# Observations) 时,R^2 = 1 吗?
我正在挑战数据科学课程测验中的一个问题。我给出的答案是“信息不足”。测试人员声称答案是“R^2 = 1”。我无法从数学或概念上理解这一点。我用 SciKit 运行回归来学习测试它,但没有收到 R^2 = 1。
问题:如果 P = N,则样本的 R-Squared 将是: ? 其中,P:回归变量的数量 N:样本中的观察数量
在我提出一点地狱之前,我感谢您自愿提供的任何意见。:)