Fleiss' kappa (original) (raw)
La kappa de Fleiss (anomenada en honor de ) és una que avalua la entre un nombre fix de qualificadors quan s'assignen a un cert nombre d'elements; això contrasta amb altres kappes, com la , que només funcionen quan s'avalua la concordança entre dos qualificadors. La kappa de Fleiss sempre té un valor entre zero i u. No hi ha una mesura del nivell de significació que s'hagi acceptat de manera general, tot i que sí que s'han postulat algunes directrius.
Property | Value |
---|---|
dbo:abstract | La kappa de Fleiss (anomenada en honor de ) és una que avalua la entre un nombre fix de qualificadors quan s'assignen a un cert nombre d'elements; això contrasta amb altres kappes, com la , que només funcionen quan s'avalua la concordança entre dos qualificadors. La kappa de Fleiss sempre té un valor entre zero i u. No hi ha una mesura del nivell de significació que s'hagi acceptat de manera general, tot i que sí que s'han postulat algunes directrius. La kappa de Fleiss tan sols es pot utilitzar amb qualificacions binàries o d'escala nominal. No n'existeix una versió que sigui per qualificacions ordenades categòricament. (ca) Fleiss' kappa (named after Joseph L. Fleiss) is a statistical measure for assessing the reliability of agreement between a fixed number of raters when assigning categorical ratings to a number of items or classifying items. This contrasts with other kappas such as Cohen's kappa, which only work when assessing the agreement between not more than two raters or the intra-rater reliability (for one appraiser versus themself). The measure calculates the degree of agreement in classification over that which would be expected by chance. Fleiss' kappa can be used with binary or nominal-scale. It can also be applied to Ordinal data (ranked data): the MiniTab online documentation gives an example. However, this document notes: "When you have ordinal ratings, such as defect severity ratings on a scale of 1–5, Kendall's coefficients, which account for ordering, are usually more appropriate statistics to determine association than kappa alone." Keep in mind however, that Kendall rank coefficients are only appropriate for rank data. (en) Fleiss-en kappa, κ kappa hizki grekoaz irudikatzen dena, balorazio metodo edo epaile ezberdinen arteko adostasun mailarako neurria da, balorazioak era kualitatiboan zein kuantitatibo diskretuan izan daitezkeelarik. Cohenen kappa ez bezala, 2 epaile edo balorazio metodo baino gehiagotarako, erabil daiteke. Adibidez, epaile batzuek lanpostu baterako hautagai bati ezaugarri ezberdinei buruz baloratzen badute 1etik 5erako puntuazioak emanez, Fleissen kappak epaileen arteko adostasun maila neurtzen du. Neurketa gailu baten zehaztasuna neurtzeko ere erabil daiteke, une ezberdinetan elementu edo banako bati egindako neurketen arteko adostasuna aztertuz. Fleissen kappa adierazleak zoriz itxaron daitekeen adostasun maila baztertuz neurtzen du adostasun maila. Honela kalkulatzen da: (1) Zatitzailean zoriz itxaron daitekeen adostasun maila ezabatu da. Zatikizunean berriz, balorazio ezberdinetarako adostasun maila azaltzen da, betiere zoriz itxaron daitekeen adostasun maila bazterturik. (eu) Kappa de Fleiss (nommé d'après Joseph L. Fleiss) est une mesure statistique qui évalue la concordance lors de l'assignation qualitative d'objets au sein de catégories pour un certain nombre d'observateurs. Cela contraste avec d'autres kappas tel que le Kappa de Cohen, qui ne fonctionne que pour évaluer la concordance entre deux observateurs. La mesure calcule le degré de concordance de la classification par rapport à ce qui pourrait être attendu si elle était faite au hasard. Il n'y a pas de mesure significative convenue, bien que certaines lignes directrices aient été données. Le Kappa de Fleiss peut être utilisé pour la classification binaire ou nominale. Il n'y a pas de version disponible pour les classifications de type ordonnée telles que celle de Likert. (fr) |
dbo:wikiPageExternalLink | http://justus.randolph.name/kappa https://agreestat360.com/ https://support.minitab.com/en-us/minitab/18/help-and-how-to/quality-and-process-improvement/measurement-system-analysis/how-to/attribute-agreement-analysis/attribute-agreement-analysis/interpret-the-results/all-statistics-and-graphs/kappa-statistics/ http://www.john-uebersax.com/stat/kappa.htm http://www.agreestat.com/book4/9780970806284_chap2.pdf http://www.agreestat.com/research_papers/bjmsp2008_interrater.pdf https://web.archive.org/web/20090228090813/http:/justus.randolph.name/kappa https://web.archive.org/web/20160303181406/http:/www.agreestat.com/research_papers/bjmsp2008_interrater.pdf |
dbo:wikiPageID | 5721320 (xsd:integer) |
dbo:wikiPageInterLanguageLink | dbpedia-de:Cohens_Kappa |
dbo:wikiPageLength | 12999 (xsd:nonNegativeInteger) |
dbo:wikiPageRevisionID | 1123476831 (xsd:integer) |
dbo:wikiPageWikiLink | dbc:Categorical_variable_interactions dbr:Joseph_L._Fleiss dbr:Inter-rater_reliability dbr:Matrix_(mathematics) dbr:Matthews_correlation_coefficient dbr:Nominal_data dbc:Inter-rater_reliability dbr:Standard_score dbr:Krippendorff's_alpha dbr:P-value dbr:Youden's_J_statistic dbr:Kendall_rank_correlation_coefficient dbr:Pearson_product-moment_correlation_coefficient dbr:Statistical dbc:Summary_statistics_for_contingency_tables dbr:Cohen's_kappa dbr:Ordinal_data dbr:Scott's_pi dbr:Statistical_measure dbr:Categorical_rating |
dbp:date | 2009-02-28 (xsd:date) 2016-03-03 (xsd:date) |
dbp:url | https://web.archive.org/web/20090228090813/http:/justus.randolph.name/kappa https://web.archive.org/web/20160303181406/http:/www.agreestat.com/research_papers/bjmsp2008_interrater.pdf |
dbp:wikiPageUsesTemplate | dbt:Good_article dbt:ISBN dbt:Note dbt:Ref dbt:Short_description dbt:Webarchive dbt:Wikibooks |
dcterms:subject | dbc:Categorical_variable_interactions dbc:Inter-rater_reliability dbc:Summary_statistics_for_contingency_tables |
gold:hypernym | dbr:Measure |
rdf:type | dbo:Software yago:WikicatCategoricalData yago:Abstraction100002137 yago:Cognition100023271 yago:Datum105816622 yago:Information105816287 yago:PsychologicalFeature100023100 |
rdfs:comment | La kappa de Fleiss (anomenada en honor de ) és una que avalua la entre un nombre fix de qualificadors quan s'assignen a un cert nombre d'elements; això contrasta amb altres kappes, com la , que només funcionen quan s'avalua la concordança entre dos qualificadors. La kappa de Fleiss sempre té un valor entre zero i u. No hi ha una mesura del nivell de significació que s'hagi acceptat de manera general, tot i que sí que s'han postulat algunes directrius. (ca) Fleiss' kappa (named after Joseph L. Fleiss) is a statistical measure for assessing the reliability of agreement between a fixed number of raters when assigning categorical ratings to a number of items or classifying items. This contrasts with other kappas such as Cohen's kappa, which only work when assessing the agreement between not more than two raters or the intra-rater reliability (for one appraiser versus themself). The measure calculates the degree of agreement in classification over that which would be expected by chance. (en) Fleiss-en kappa, κ kappa hizki grekoaz irudikatzen dena, balorazio metodo edo epaile ezberdinen arteko adostasun mailarako neurria da, balorazioak era kualitatiboan zein kuantitatibo diskretuan izan daitezkeelarik. Cohenen kappa ez bezala, 2 epaile edo balorazio metodo baino gehiagotarako, erabil daiteke. Adibidez, epaile batzuek lanpostu baterako hautagai bati ezaugarri ezberdinei buruz baloratzen badute 1etik 5erako puntuazioak emanez, Fleissen kappak epaileen arteko adostasun maila neurtzen du. Neurketa gailu baten zehaztasuna neurtzeko ere erabil daiteke, une ezberdinetan elementu edo banako bati egindako neurketen arteko adostasuna aztertuz. (eu) Kappa de Fleiss (nommé d'après Joseph L. Fleiss) est une mesure statistique qui évalue la concordance lors de l'assignation qualitative d'objets au sein de catégories pour un certain nombre d'observateurs. Cela contraste avec d'autres kappas tel que le Kappa de Cohen, qui ne fonctionne que pour évaluer la concordance entre deux observateurs. La mesure calcule le degré de concordance de la classification par rapport à ce qui pourrait être attendu si elle était faite au hasard. Il n'y a pas de mesure significative convenue, bien que certaines lignes directrices aient été données. (fr) |
rdfs:label | Kappa de Fleiss (ca) Fleissen kappa (eu) Fleiss' kappa (en) Kappa de Fleiss (fr) |
owl:sameAs | freebase:Fleiss' kappa yago-res:Fleiss' kappa wikidata:Fleiss' kappa dbpedia-ca:Fleiss' kappa dbpedia-eu:Fleiss' kappa dbpedia-fr:Fleiss' kappa dbpedia-tr:Fleiss' kappa https://global.dbpedia.org/id/3U3ak |
prov:wasDerivedFrom | wikipedia-en:Fleiss'_kappa?oldid=1123476831&ns=0 |
foaf:isPrimaryTopicOf | wikipedia-en:Fleiss'_kappa |
is dbo:knownFor of | dbr:Joseph_L._Fleiss |
is dbo:wikiPageDisambiguates of | dbr:Kappa_(disambiguation) dbr:Fleiss |
is dbo:wikiPageRedirects of | dbr:Fleiss_kappa dbr:Fleiss'_kappa_statistic dbr:Fleiss's_kappa |
is dbo:wikiPageWikiLink of | dbr:List_of_analyses_of_categorical_data dbr:Joseph_L._Fleiss dbr:Inter-rater_reliability dbr:Krippendorff's_alpha dbr:Youden's_J_statistic dbr:Bangdiwala's_B dbr:Fleiss_kappa dbr:Kappa dbr:Cohen's_kappa dbr:Receiver_operating_characteristic dbr:Total_operating_characteristic dbr:List_of_statistics_articles dbr:Kappa_(disambiguation) dbr:Fleiss dbr:Scott's_Pi dbr:Fleiss'_kappa_statistic dbr:Fleiss's_kappa |
is foaf:primaryTopic of | wikipedia-en:Fleiss'_kappa |