CoboCards App FAQ & Wishes Feedback
Language: English Language
Sign up for free  Login

Get these flashcards, study & pass exams. For free! Even on iPhone/Android!

Enter your e-mail address and import flashcard set for free.  
Go!
All main topics / Psychologie / Statistik

VO Ausgewählte Methoden (175 Cards)

Say thanks
132
Cardlink
0
Was ist Cohens Kappa? Welche Maßzahlen können berechnet werden?
Bei einer einfachen Konkordanzbestimmung mittels prozentueller Darstellung werden zufällige Übereinstimmungen nicht berücksichtigt und können somit zu einer Überschätzung der
Konkordanz führen - deshalb Verwendung von Cohens Kappa.

  • Cohens Kappa (κ) ist ein zufallsbereinigtesMaß der Beurteilerübereinstimmung (Konkordanz) für 2 Rater (Cohen, 1960)
  • Ähnlich wie für χ2-Tests wird für die Berechnung von Kappa die Anzahl zufällig konkordanter Urteile aus den Randverteilungen geschätzt (unter Annahme der Unabhängigkeit der Urteile)



- P0 = beobachteten Urteile
- Pe = erwartenden Urteile

Tags: Cohens Kappa, Interraterreliabilität
Source: VO08
133
Cardlink
0
In welchem Wertebereich kann das Cohens Kappa liegen?
  • Wertebereich von Kappa −1 bis +1
  • Ähnlich Korrelation, allerdings mit anderer Interpretation negativer Werte
  • κ = +1: Perfekte Übereinstimmung/Konkordanz
  • (b = c = 0 .... p0 = 1)
  • κ = −1: keine beobachteten Übereinstimmungen (a = d = 0 ... p0 = 0) bei maximaler Wahrscheinlichkeit zufälliger Übereinstimmungen
  • (b = c .... pe = 0.5 ... alle vier Randsummen sind identisch)
  • κ = 0: beobachtete Übereinstimmung ist nicht besser als die durch den Zufall erwartete (p0 = pe)

Tags: Cohens Kappa, Interraterreliabilität
Source: VO08
134
Cardlink
0
Was zeigt dieser SPSS-Ausdruck:

Beispiel: 2 Rater und wie sie Major Depression diagnostiziert haben


Kappa = .73, p < .001 (einseitig)
Spricht ein Kappa von .73 für eine gute Konkordanz? - Ja.
Tags: Cohens Kappa, Interraterreliabilität, SPSS
Source: VO08
135
Cardlink
0
Wann spricht man guter Konkordanz bei Cohens Kappa? Was ist bei der Interpretation der Werte zu beachten?
Cutoffs für Kappa (Fleiss, 1981) – Signifikanz vorausgesetzt


Allerdings: Wertebereich und Ausprägung des Koeffizienten von einer Anzahl an Faktoren beeinflusst, die nicht Konkordanz selbst betreffen .... erschwert Interpretation von Kappa und verringert den Nutzen von Cutoffs

Kappa beeinflusst durch
  • Randverteilungen (vgl. Phi-Koeffizient)
  • Anzahl der Kategorien und der Besetzung von Zellen
  • Prävalenz des untersuchten Merkmals

Effekte gehen in gleiche Richtung .... i. A. Unterschätzung der Konkordanz
Tags: Cohens Kappa, Interraterreliabilität
Source: VO08
136
Cardlink
0
Wodurch wird das Cohens Kappa beeinflusst?
Wertebereich und Ausprägung des Koeffizienten von einer Anzahl an Faktoren beeinflusst, die nicht Konkordanz selbst betreffen ... erschwert Interpretation von Kappa und verringert den Nutzen von Cutoffs

Kappa beeinflusst durch
  • Randverteilungen (vgl. Phi-Koeffizient)
  • .... i. A. Unterschätzung der Konkordanz bei ungleichen Randverteilungen
  • Anzahl der Kategorien und der Besetzung von Zellen
  • (Asendorpf & Wallbott, 1978)- geringe Anzahl an Beurteilungskategorien und/oder nur geringe Zellbesetzungen .... Unterschätzung der Konkordanz(Je weniger Kategorien oder geringe Werte in den Zellen (kleiner als 5) desto weniger Konkordanz)
  • Prävalenz des untersuchten Merkmals
  • (Feinstein & Cicchetti, 1990; Spitznagel & Helzer, 1985)bei niedriger Prävalenz (ca. < 10% in der Stichprobe) ... Unterschätzung der Konkordanz

Effekte gehen in gleiche Richtung i. A. .... Unterschätzung der Konkordanz
Tags: Cohens Kappa, Interraterreliabilität, Konkordanz
Source: VO08
137
Cardlink
0
Welche weiteren Varianten des Cohens Kappa können berechnet werden? Welche anderen Koeffizienten sind noch zu empfehlen?
Berechnung des gewichteten Kappa (weighted Kappa;
Cohen, 1968)
Kappa verrechnet alle Nicht-Übereinstimmungen gleich schwer, kann unangemessen sein, wenn Merkmale z.B. ordinal skaliert sind

Fleiss‘ Kappa
  • Liegen Urteile von mehr als 2 Ratern vor und ist man an deren Übereinstimmung interessiert
  • Mittlere Konkordanz aller Rater über alle Objekte
  • Inhaltlich kann Fleiss‘ Kappa analog zu Cohens Kappa interpretiert werden, Gewichtung ist aber nicht möglich

Probleme des Kappa-Koeffizienten führten auch zur Empfehlung der Verwendung anderer Koeffizienten
  • Für dichotome Ratingsskalen und 2 Rater z.B. Odds Ratio oder Yules Y (vgl. Wirtz & Caspar, 2002)
  • Für metrische Ratingskalen ist insbesondere die Intraklassenkorrelation (ICC) ein gebräuchliches Maß zur Bestimmung der Interraterreliabilität
  • - Maß der Varianzaufklärung (Wertebereich 0 bis 1)- Für 2 oder mehr Rater geeignet- Erlaubt Bestimmung der absoluten oder der relativen Gleichheit von UrteilenIn SPSS (Analysieren > Skalieren > Reliabilitätsanalyse …) ausreichend implementiert
Tags: Cohens Kappa, Interraterreliabilität
Source: VO08
Flashcard set info:
Author: coster
Main topic: Psychologie
Topic: Statistik
School / Univ.: Universität Wien
City: Wien
Published: 21.06.2013
Tags: Tran, SS2013
 
Card tags:
All cards (175)
4-Felder-Tafel (17)
abhängige Daten (6)
ALM (1)
ANCOVA (3)
ANOVA (15)
Bindung (1)
Cohens d (10)
Cohens Kappa (6)
Effektgröße (31)
einfaktorielle ANOVA (6)
Einzelvergleich (2)
Einzelvergleiche (1)
Eta (7)
Fehler (1)
Friedman-Test (3)
H-Test (5)
Haupteffekt (2)
Haupteffekte (1)
Interaktion (5)
Interraterreliabilität (13)
Jonckheere-Terpstra-Test (2)
Konfidenzintervall (3)
Konkordanz (4)
Kontrast (11)
Kontrollvariable (1)
Kruska-Wallis-Test (5)
MANOVA (2)
McNemar-Test (4)
Mediantest (5)
Medientest (1)
mehrfaktorielle ANOVA (5)
mixed ANOVA (10)
nicht-parametrische Verfahren (36)
nicht-parametrische Verfahrenh (1)
NNT (3)
Normalverteilung (3)
NPV (4)
Nulldifferenzen (1)
odds ratio (7)
Optimaler Stichprobenumfang (4)
parametrische Verfahren (5)
partielle Eta (5)
phi-Koeffizient (1)
Phi-Koeffizienz (1)
phi-Korrelationskoeffizient (1)
Planung (1)
Polynomiale Kontraste (5)
Post-Hoc-Test (4)
Post-hoc-Tests (3)
Power (1)
PPV (4)
Prävalenz (6)
Produkt-Moment-Korrelation (1)
r (4)
Reliabilität (1)
risk ratio (7)
Sensitivität (6)
Signifikanz (6)
simple effects analysis (1)
Spezifität (6)
Sphärizität (2)
SPSS (14)
SPss (1)
Stichprobe (3)
Störvariable (1)
t-Test (7)
Testmacht (2)
Trends (1)
U-Test (6)
Varianz (2)
Varianzanalyse (11)
Varianzhomogenität (1)
Varianzschätzer (1)
Voraussetzungen (2)
Vorzeichentest (2)
Wechselwirkung (3)
Wilcoxon-Test (4)
x2-Test (5)
zweifaktorielle ANOVA (15)
Report abuse

Cancel
Email

Password

Login    

Forgot password?
Deutsch  English