问题标签 [cohen-kappa]
For questions regarding programming in ECMAScript (JavaScript/JS) and its various dialects/implementations (excluding ActionScript). Note JavaScript is NOT the same as Java! Please include all relevant tags on your question; e.g., [node.js], [jquery], [json], [reactjs], [angular], [ember.js], [vue.js], [typescript], [svelte], etc.
r - r 中 Light 的 kappa 的自举置信区间
目标:如何计算 r 中 Light 的 kappa 的引导置信区间?
问题:虽然我已成功提取统计信息,但我尝试了以下代码,但不确定我哪里出错了......
以下是数据集的示例:
这是我用来计算统计数据和 95% CI 的代码:
在开始 res 的行之后,我收到以下错误: if ((sum(dim1[i] == dimi1) == 1) & (sum(dim2[j] == dimi2) == 中的错误:缺少值 where TRUE /FALSE 需要
python - Cohen Kappa 的得分是否正确?
只有 2% 的标签不一致时cohen_kappa_score
输出是否正确?0.0
还是我错过了什么?
r - 如何在 R 中计算 Cohen 的 Kappa 和 PABAK?
我想计算两个评估者对具有两个或多个类别的变量的评估者间一致性。但是,我假设会有一个普遍性问题(即某些类别可能比其他类别更频繁地出现在数据中)。因此,我也有兴趣获得患病率调整偏差调整 kappa (PABAK)。据我所见,{IRR} 包不提供此选项,但 {epiR} 的 epi.kappa 函数提供此选项。但是,我更喜欢使用 {IRR},因为我想获得 Cohen 的 Kappa(epiR 似乎基于 Fleiss 的 Kappa)。有没有其他方法可以在 R 中获得 Cohen 的 Kappa 和 PABAK?
非常感谢!