欢迎加入官方 QQ 用户交流群,群号: 960855308

有任何问题或者新的计算器添加都可以提出,我们负责免费修正和实现提高你的工作效率。

相对观察一致性为 {{ po }},偶然一致性的假设概率为 {{ pe }},Cohen's Kappa 系数为 {{ kappa.toFixed(2) }}。

计算过程:

1. 应用 Cohen's Kappa 系数公式:

k = ({{ po }} - {{ pe }}) / (1 - {{ pe }})

2. 执行减法:

{{ po }} - {{ pe }} = {{ po - pe }}

3. 计算分母:

1 - {{ pe }} = {{ 1 - pe }}

4. 除法运算:

({{ po - pe }}) / ({{ 1 - pe }}) = {{ kappa.toFixed(2) }}

分享
嵌入

科恩 Kappa 系数计算器

创建者: Neo
审核人: Ming
最后更新: 2025-06-09 07:54:37
总计算次数: 1450
标签:

理解如何使用 Cohen's Kappa 系数测量评分者间信度对于确保研究、调查和数据分析的一致性和可靠性至关重要。本综合指南解释了 Cohen's Kappa 系数的概念、公式、实际示例和常见问题。


Cohen's Kappa 系数为何重要:增强数据可靠性和一致性

基本背景

Cohen's Kappa 系数测量两个或多个评分者之间超出偶然期望值的一致性。它广泛应用于心理学、医学和数据科学等领域,以评估分类评级的可靠性。主要应用包括:

  • 研究: 确保对定性数据进行一致的分类
  • 医疗诊断: 评估临床医生诊断疾病时的一致性
  • 调查分析: 验证调查回复的可靠性

该系数考虑了随机一致性,从而比简单的一致性百分比更准确地反映了真实一致性。


精确的 Cohen's Kappa 公式:量化超出偶然性的一致性

Cohen's Kappa 系数的公式为:

\[ k = \frac{(p_o - p_e)}{(1 - p_e)} \]

其中:

  • \( k \): Cohen's Kappa 系数
  • \( p_o \): 评分者之间的相对观察一致性
  • \( p_e \): 偶然一致性的假设概率

该公式调整了协议随机发生的可能性,从而提供了对评分者间信度的稳健测量。


实际计算示例:评估现实场景中的一致性

示例 1:医疗诊断一致性

场景: 两位医生诊断患者,观察到的一致性 (\( p_o \)) 为 0.89,偶然一致性 (\( p_e \)) 为 0.34。

  1. 计算 Kappa: \( k = (0.89 - 0.34) / (1 - 0.34) = 0.80 \)
  2. 解释: 极好的一致性,超出偶然。

示例 2:调查回复可靠性

场景: 一项调查的观察到的一致性为 0.65,偶然一致性为 0.20。

  1. 计算 Kappa: \( k = (0.65 - 0.20) / (1 - 0.20) = 0.56 \)
  2. 解释: 一般到良好的一致性,表明回复中存在一些不一致。

Cohen's Kappa 系数常见问题解答:专家解答以增强您的分析

Q1:负 Kappa 值意味着什么?

负 Kappa 值表示一致性低于偶然预期,表明评分者之间存在显着差异。

Q2:是否存在“良好”Kappa 值的阈值?

是的,常见的阈值是:

  • \( k > 0.75 \): 极好的一致性
  • \( 0.40 \leq k \leq 0.75 \): 一般到良好的一致性
  • \( k < 0.40 \): 较差的一致性

Q3:Kappa 是否可以应用于两个以上的评分者?

是的,像 Fleiss' Kappa 这样的扩展可以处理多个评分者。


Cohen's Kappa 术语表

理解 Cohen's Kappa 系数的关键术语:

  • 超出偶然的一致性:针对随机事件调整后的实际一致性。
  • 评分者:分配分类评级的个人。
  • 可靠性:不同评分者之间测量的一致性。

关于 Cohen's Kappa 系数的有趣事实

  1. 多功能性:用于从教育到人工智能的各个领域。
  2. 偶然性校正:区别于其他一致性指标的独特功能。
  3. 可解释性:提供有关评分者一致性的可行见解。