Fleiss' kappa (original) (raw)

About DBpedia

La kappa de Fleiss (anomenada en honor de ) és una que avalua la entre un nombre fix de qualificadors quan s'assignen a un cert nombre d'elements; això contrasta amb altres kappes, com la , que només funcionen quan s'avalua la concordança entre dos qualificadors. La kappa de Fleiss sempre té un valor entre zero i u. No hi ha una mesura del nivell de significació que s'hagi acceptat de manera general, tot i que sí que s'han postulat algunes directrius.

Property Value
dbo:abstract La kappa de Fleiss (anomenada en honor de ) és una que avalua la entre un nombre fix de qualificadors quan s'assignen a un cert nombre d'elements; això contrasta amb altres kappes, com la , que només funcionen quan s'avalua la concordança entre dos qualificadors. La kappa de Fleiss sempre té un valor entre zero i u. No hi ha una mesura del nivell de significació que s'hagi acceptat de manera general, tot i que sí que s'han postulat algunes directrius. La kappa de Fleiss tan sols es pot utilitzar amb qualificacions binàries o d'escala nominal. No n'existeix una versió que sigui per qualificacions ordenades categòricament. (ca) Fleiss' kappa (named after Joseph L. Fleiss) is a statistical measure for assessing the reliability of agreement between a fixed number of raters when assigning categorical ratings to a number of items or classifying items. This contrasts with other kappas such as Cohen's kappa, which only work when assessing the agreement between not more than two raters or the intra-rater reliability (for one appraiser versus themself). The measure calculates the degree of agreement in classification over that which would be expected by chance. Fleiss' kappa can be used with binary or nominal-scale. It can also be applied to Ordinal data (ranked data): the MiniTab online documentation gives an example. However, this document notes: "When you have ordinal ratings, such as defect severity ratings on a scale of 1–5, Kendall's coefficients, which account for ordering, are usually more appropriate statistics to determine association than kappa alone." Keep in mind however, that Kendall rank coefficients are only appropriate for rank data. (en) Fleiss-en kappa, κ kappa hizki grekoaz irudikatzen dena, balorazio metodo edo epaile ezberdinen arteko adostasun mailarako neurria da, balorazioak era kualitatiboan zein kuantitatibo diskretuan izan daitezkeelarik. Cohenen kappa ez bezala, 2 epaile edo balorazio metodo baino gehiagotarako, erabil daiteke. Adibidez, epaile batzuek lanpostu baterako hautagai bati ezaugarri ezberdinei buruz baloratzen badute 1etik 5erako puntuazioak emanez, Fleissen kappak epaileen arteko adostasun maila neurtzen du. Neurketa gailu baten zehaztasuna neurtzeko ere erabil daiteke, une ezberdinetan elementu edo banako bati egindako neurketen arteko adostasuna aztertuz. Fleissen kappa adierazleak zoriz itxaron daitekeen adostasun maila baztertuz neurtzen du adostasun maila. Honela kalkulatzen da: (1) Zatitzailean zoriz itxaron daitekeen adostasun maila ezabatu da. Zatikizunean berriz, balorazio ezberdinetarako adostasun maila azaltzen da, betiere zoriz itxaron daitekeen adostasun maila bazterturik. (eu) Kappa de Fleiss (nommé d'après Joseph L. Fleiss) est une mesure statistique qui évalue la concordance lors de l'assignation qualitative d'objets au sein de catégories pour un certain nombre d'observateurs. Cela contraste avec d'autres kappas tel que le Kappa de Cohen, qui ne fonctionne que pour évaluer la concordance entre deux observateurs. La mesure calcule le degré de concordance de la classification par rapport à ce qui pourrait être attendu si elle était faite au hasard. Il n'y a pas de mesure significative convenue, bien que certaines lignes directrices aient été données. Le Kappa de Fleiss peut être utilisé pour la classification binaire ou nominale. Il n'y a pas de version disponible pour les classifications de type ordonnée telles que celle de Likert. (fr)
dbo:wikiPageExternalLink http://justus.randolph.name/kappa https://agreestat360.com/ https://support.minitab.com/en-us/minitab/18/help-and-how-to/quality-and-process-improvement/measurement-system-analysis/how-to/attribute-agreement-analysis/attribute-agreement-analysis/interpret-the-results/all-statistics-and-graphs/kappa-statistics/ http://www.john-uebersax.com/stat/kappa.htm http://www.agreestat.com/book4/9780970806284_chap2.pdf http://www.agreestat.com/research_papers/bjmsp2008_interrater.pdf https://web.archive.org/web/20090228090813/http:/justus.randolph.name/kappa https://web.archive.org/web/20160303181406/http:/www.agreestat.com/research_papers/bjmsp2008_interrater.pdf
dbo:wikiPageID 5721320 (xsd:integer)
dbo:wikiPageInterLanguageLink dbpedia-de:Cohens_Kappa
dbo:wikiPageLength 12999 (xsd:nonNegativeInteger)
dbo:wikiPageRevisionID 1123476831 (xsd:integer)
dbo:wikiPageWikiLink dbc:Categorical_variable_interactions dbr:Joseph_L._Fleiss dbr:Inter-rater_reliability dbr:Matrix_(mathematics) dbr:Matthews_correlation_coefficient dbr:Nominal_data dbc:Inter-rater_reliability dbr:Standard_score dbr:Krippendorff's_alpha dbr:P-value dbr:Youden's_J_statistic dbr:Kendall_rank_correlation_coefficient dbr:Pearson_product-moment_correlation_coefficient dbr:Statistical dbc:Summary_statistics_for_contingency_tables dbr:Cohen's_kappa dbr:Ordinal_data dbr:Scott's_pi dbr:Statistical_measure dbr:Categorical_rating
dbp:date 2009-02-28 (xsd:date) 2016-03-03 (xsd:date)
dbp:url https://web.archive.org/web/20090228090813/http:/justus.randolph.name/kappa https://web.archive.org/web/20160303181406/http:/www.agreestat.com/research_papers/bjmsp2008_interrater.pdf
dbp:wikiPageUsesTemplate dbt:Good_article dbt:ISBN dbt:Note dbt:Ref dbt:Short_description dbt:Webarchive dbt:Wikibooks
dcterms:subject dbc:Categorical_variable_interactions dbc:Inter-rater_reliability dbc:Summary_statistics_for_contingency_tables
gold:hypernym dbr:Measure
rdf:type dbo:Software yago:WikicatCategoricalData yago:Abstraction100002137 yago:Cognition100023271 yago:Datum105816622 yago:Information105816287 yago:PsychologicalFeature100023100
rdfs:comment La kappa de Fleiss (anomenada en honor de ) és una que avalua la entre un nombre fix de qualificadors quan s'assignen a un cert nombre d'elements; això contrasta amb altres kappes, com la , que només funcionen quan s'avalua la concordança entre dos qualificadors. La kappa de Fleiss sempre té un valor entre zero i u. No hi ha una mesura del nivell de significació que s'hagi acceptat de manera general, tot i que sí que s'han postulat algunes directrius. (ca) Fleiss' kappa (named after Joseph L. Fleiss) is a statistical measure for assessing the reliability of agreement between a fixed number of raters when assigning categorical ratings to a number of items or classifying items. This contrasts with other kappas such as Cohen's kappa, which only work when assessing the agreement between not more than two raters or the intra-rater reliability (for one appraiser versus themself). The measure calculates the degree of agreement in classification over that which would be expected by chance. (en) Fleiss-en kappa, κ kappa hizki grekoaz irudikatzen dena, balorazio metodo edo epaile ezberdinen arteko adostasun mailarako neurria da, balorazioak era kualitatiboan zein kuantitatibo diskretuan izan daitezkeelarik. Cohenen kappa ez bezala, 2 epaile edo balorazio metodo baino gehiagotarako, erabil daiteke. Adibidez, epaile batzuek lanpostu baterako hautagai bati ezaugarri ezberdinei buruz baloratzen badute 1etik 5erako puntuazioak emanez, Fleissen kappak epaileen arteko adostasun maila neurtzen du. Neurketa gailu baten zehaztasuna neurtzeko ere erabil daiteke, une ezberdinetan elementu edo banako bati egindako neurketen arteko adostasuna aztertuz. (eu) Kappa de Fleiss (nommé d'après Joseph L. Fleiss) est une mesure statistique qui évalue la concordance lors de l'assignation qualitative d'objets au sein de catégories pour un certain nombre d'observateurs. Cela contraste avec d'autres kappas tel que le Kappa de Cohen, qui ne fonctionne que pour évaluer la concordance entre deux observateurs. La mesure calcule le degré de concordance de la classification par rapport à ce qui pourrait être attendu si elle était faite au hasard. Il n'y a pas de mesure significative convenue, bien que certaines lignes directrices aient été données. (fr)
rdfs:label Kappa de Fleiss (ca) Fleissen kappa (eu) Fleiss' kappa (en) Kappa de Fleiss (fr)
owl:sameAs freebase:Fleiss' kappa yago-res:Fleiss' kappa wikidata:Fleiss' kappa dbpedia-ca:Fleiss' kappa dbpedia-eu:Fleiss' kappa dbpedia-fr:Fleiss' kappa dbpedia-tr:Fleiss' kappa https://global.dbpedia.org/id/3U3ak
prov:wasDerivedFrom wikipedia-en:Fleiss'_kappa?oldid=1123476831&ns=0
foaf:isPrimaryTopicOf wikipedia-en:Fleiss'_kappa
is dbo:knownFor of dbr:Joseph_L._Fleiss
is dbo:wikiPageDisambiguates of dbr:Kappa_(disambiguation) dbr:Fleiss
is dbo:wikiPageRedirects of dbr:Fleiss_kappa dbr:Fleiss'_kappa_statistic dbr:Fleiss's_kappa
is dbo:wikiPageWikiLink of dbr:List_of_analyses_of_categorical_data dbr:Joseph_L._Fleiss dbr:Inter-rater_reliability dbr:Krippendorff's_alpha dbr:Youden's_J_statistic dbr:Bangdiwala's_B dbr:Fleiss_kappa dbr:Kappa dbr:Cohen's_kappa dbr:Receiver_operating_characteristic dbr:Total_operating_characteristic dbr:List_of_statistics_articles dbr:Kappa_(disambiguation) dbr:Fleiss dbr:Scott's_Pi dbr:Fleiss'_kappa_statistic dbr:Fleiss's_kappa
is foaf:primaryTopic of wikipedia-en:Fleiss'_kappa