Kappa de Fleiss
Aparença
La kappa de Fleiss (anomenada en honor de Joseph Fleiss) és una mesura estadística que avalua la fiabilitat de concordança entre un nombre fix de qualificadors quan s'assignen classificacions categòriques a un cert nombre d'elements; això contrasta amb altres kappes, com la kappa de Cohen, que només funcionen quan s'avalua la concordança entre dos qualificadors. La kappa de Fleiss sempre té un valor entre zero i u. No hi ha una mesura del nivell de significació que s'hagi acceptat de manera general, tot i que sí que s'han postulat algunes directrius.
La kappa de Fleiss tan sols es pot utilitzar amb qualificacions binàries o d'escala nominal. No n'existeix una versió que sigui per qualificacions ordenades categòricament.
Referències
[modifica]- Fleiss, J. L. (1971) "Measuring nominal scale agreement among many raters." Psychological Bulletin, Vol. 76, No. 5 pp. 378–382
- Gwet, K. (2001) Statistical Tables for Inter-Rater Agreement. (Gaithersburg : StatAxis Publishing)
- Gwet, K. L. (2010) Handbook of Inter-Rater Reliability (2nd Edition). (Gaithersburg : Advanced Analytics, LLC) ISBN 978-0-9708062-2-2
- Landis, J. R. and Koch, G. G. (1977) "The measurement of observer agreement for categorical data" in Biometrics. Vol. 33, pp. 159–174
- Scott, W. (1955). "Reliability of content analysis: The case of nominal scale coding." Public Opinion Quarterly, Vol. 19, No. 3, pp. 321–325.
- Sim, J. and Wright, C. C. (2005) "The Kappa Statistic in Reliability Studies: Use, Interpretation, and Sample Size Requirements" in Physical Therapy. Vol. 85, No. 3, pp. 257–268
Bibliografia addicional
[modifica]- Fleiss, J. L. and Cohen, J. (1973) "The equivalence of weighted kappa and the intraclass correlation coefficient as measures of reliability" in Educational and Psychological Measurement, Vol. 33 pp. 613–619
- Fleiss, J. L. (1981) Statistical methods for rates and proportions. 2nd ed. (Nova York: John Wiley) pp. 38–46
- Gwet, K. L. (2008) "Computing inter-rater reliability and its variance in the presence of high agreement Arxivat 2016-03-03 a Wayback Machine.", British Journal of Mathematical and Statistical Psychology, Vol. 61, pp29–48
Vegeu també
[modifica]Enllaços externs
[modifica]- The Problem with Kappa Arxivat 2016-05-18 at the Portuguese Web Archive
- Kappa: Pros and Cons contains a good bibliography of articles about the coefficient.
- Online Kappa Calculator Arxivat 2009-02-28 a Wayback Machine. calculates a variation of Fleiss' kappa.
- AgreeStat a Point-And-Click Excel2007 VBA Program Arxivat 2012-03-06 a Wayback Machine. calculates various inter-rater reliability coefficients and associated variances.