Stel je 2 codeurs voor die het gedrag van een docent in kaart proberen te krijgen.
Door te turven wordt met een observatie-instrument het gedrag (acties) verzameld in 7 verschillende categorieen over 3 meetmomenten. (Per categorie kan het aantal waarnemingen natuurlijk flink oplopen.)
Nu willen de observatoren de interbeoordelaarsbetrouwbaarheid bepalen.
Op het internet zien ze staan: "Veelgebruikte maten voor de interbeoordelaarsbetrouwbaarheid zijn de Pearson r- correlatiecoëfficiënt en Cohens kappa. Soms wordt, de niet zo strenge, percentage overeenkomst gebruikt."
Hoe word deze "eenvoudige percentage overeenkomst" berekend, en heeft iemand een concreet voorbeeld?
Als Cohens kappa strenger is, omdat het toeval enigszinds uitsluit, hoe zouden ze dit precies moeten aanpakken? (SPSS-Analyze-Descriptives-Crosstabs?)
Echter, omdat het 3 meetmomenten betreft, zouden zij dan ook 3 Kappa ratios moeten berekenen?
Alvast bedankt voor het meedenken,
Mark