Was ist die erste Frage im "Entscheidungsbaum"?
Wie verfährt man bei diesem Schritt weiter?
Wie verfährt man bei diesem Schritt weiter?
Zusammenhangs- oder Unterschiedshypothese?
– Bei Zusammenhangshypothese: Korrelationsverfahren
– Bei Unterschiedshypothese: t-Tests, Varianzanalysen
– Bei Zusammenhangshypothese: Korrelationsverfahren
– Bei Unterschiedshypothese: t-Tests, Varianzanalysen
Tags: Entscheidungsbaum, VL 11
Quelle:
Quelle:
Wonach richtet man sich, um zu erfahren, welches Korrelationsverfahren angewendet werden muss?
Tabelle nach Skalenniveaus.
Tags: VL 11
Quelle:
Quelle:
Entscheidungsbaum bei Unterschiedshypothesen: Was ist die erste Frage?
Wie ist das Skalenniveau der abhängigen Variable?:
- nominal: Chi-Quadrat Test
- metrisch oder ordinal:
- 2 Gruppen (z.B. Männer/Frauen; t-Tests und verwandte Tests)
- mehr als 2 Gruppen (z.B. 3 Bedingungen in einem Experiment)
- mehr als 2 Faktoren (können zwei, aber auch mehr Stufen/
Gruppen haben) werden gleichzeitig betrachtet (ermöglicht
Interaktionsanalysen)
siehe Tabellen VL 11, S.6-8
- nominal: Chi-Quadrat Test
- metrisch oder ordinal:
- 2 Gruppen (z.B. Männer/Frauen; t-Tests und verwandte Tests)
- mehr als 2 Gruppen (z.B. 3 Bedingungen in einem Experiment)
- mehr als 2 Faktoren (können zwei, aber auch mehr Stufen/
Gruppen haben) werden gleichzeitig betrachtet (ermöglicht
Interaktionsanalysen)
siehe Tabellen VL 11, S.6-8
Tags: Vl 11
Quelle:
Quelle:
Sie haben eine empir. Untersuchung durchgeführt (z.B. Experim., Fragebogenstudie) und in diesem Rahmen Daten erhoben. Was sind die 6 Schritte für eine prototypische Vorgehensweise zur Datenanalyse?
1. Eingabe der Daten in SPSS
2. Despkriptive Analysen
3. Vorbereitung der Inferenzstatistik
a) standardisierter Fragebogen
b) ad-hoc-Fragebogen
4. Inferenzstatistik
5. Regressionsanalyse
6. Clusteranalyse
2. Despkriptive Analysen
3. Vorbereitung der Inferenzstatistik
a) standardisierter Fragebogen
b) ad-hoc-Fragebogen
4. Inferenzstatistik
5. Regressionsanalyse
6. Clusteranalyse
Tags: VL 11
Quelle:
Quelle:
Wie sieht Schritt 1 bei der prototypischen Vorgehensweise zur Datenanalyse genauer aus?
1. Schritt: Eingabe der Daten in SPSS und Datenprüfung
- Wenn Nutzung eines paper-pencil Fragebogens:
bei der Eingabe in SPSS kann es zu Fehlern kommen
-> Minima & Maxima angeben lassen (z.B., dass fälschlicherw. eine 33 statt einer 3 eingeg. wurde)
- Wenn Nutzung eines paper-pencil Fragebogens:
bei der Eingabe in SPSS kann es zu Fehlern kommen
-> Minima & Maxima angeben lassen (z.B., dass fälschlicherw. eine 33 statt einer 3 eingeg. wurde)
Tags: VL 11
Quelle:
Quelle:
Wie sieht Schritt 2 bei der prototypischen Vorgehensweise zur Datenanalyse genauer aus?
Deskriptive Analysen
- Je nach Fragestellung empfiehlt sich eventuell zu Beginn, eine Übersicht* über das generelle (Antwort)verhalten, unabhg. von evtl. variierten Bedingungen, zu erhalten
- Dazu werden Häufigkeiten (bei nominalen Variablen) oder Mittelwerte und Standardabweichungen (bei metrischen Variablen) angegeben
*Um eine Übersicht über den Zusammenhang zwischen den erhobenen Variablen zu erhalten, können Korrelationsverfahren genutzt werden
- Je nach Fragestellung empfiehlt sich eventuell zu Beginn, eine Übersicht* über das generelle (Antwort)verhalten, unabhg. von evtl. variierten Bedingungen, zu erhalten
- Dazu werden Häufigkeiten (bei nominalen Variablen) oder Mittelwerte und Standardabweichungen (bei metrischen Variablen) angegeben
*Um eine Übersicht über den Zusammenhang zwischen den erhobenen Variablen zu erhalten, können Korrelationsverfahren genutzt werden
Tags: VL 11
Quelle:
Quelle:
Wie sieht Schritt 3(mit Fall a) bei der prototypischen Vorgehensweise zur Datenanalyse genauer aus?
Vorbereitung der Inferenzstatistik
Wenn in einem Fragebogen Skalen genutzt werden (Gruppen von Items, die zu einem bestimmten Bereich Auskunft geben sollen, z.B. Motive zur Fernsehnutzung, Persönlichkeitseigenschaften), sollten diese vor Beginn der Analysen verdichtet werden
Fall A: standardisierter Fragebogen
- es handelt sich um einen standardisierten Fragebogen, für den eine Auswertungsanweisung vorliegt (z.B. Neo-FFI zur Messung von Persönlichkeit), d.h. es wurde in vorherig. Studien festgestellt, welche Items zu welchem Faktor gehören
Mittelwert- oder Summenbildung für jede Dimension/Subskala
Wenn in einem Fragebogen Skalen genutzt werden (Gruppen von Items, die zu einem bestimmten Bereich Auskunft geben sollen, z.B. Motive zur Fernsehnutzung, Persönlichkeitseigenschaften), sollten diese vor Beginn der Analysen verdichtet werden
Fall A: standardisierter Fragebogen
- es handelt sich um einen standardisierten Fragebogen, für den eine Auswertungsanweisung vorliegt (z.B. Neo-FFI zur Messung von Persönlichkeit), d.h. es wurde in vorherig. Studien festgestellt, welche Items zu welchem Faktor gehören
Mittelwert- oder Summenbildung für jede Dimension/Subskala
Tags: VL 11
Quelle:
Quelle:
Wie sieht Schritt 3(mit Fall b) bei der prototypischen Vorgehensweise zur Datenanalyse genauer aus?
Vorbereitung der Inferenzstatistik
Fall B: ad-hoc Fragebogen
- Da kein standardisierter Fragebogen vorlag, haben Sie einen ad-hoc Fragebogen mit z.B. 20 Items zusammengestellt (z.B. zur Wirkung von 3D-Filmen)
- Die Auswertung nicht auf Basis der Einzelitems (wäre besonders nachteilig wenn Berücksichtigung als moderierende Variable, z.B. Motive der Internetnutzung)
- zunächst Faktorenanalyse (Items werden zu wenigen Faktoren zusammenfasst)
- Durchführung einer explorativen Faktorenanalyse
- Üblich: Hauptkomponentenanalyse mit Varimax Rotation
- Zunächst Eigenwertkriterium nutzen, um Faktorenanzahl bestimmen zu lassen
- Ergeben sich keine semantisch sinnvollen/eindeutig benennbaren Faktoren, andere
Faktorenanzahl ausprobieren (z.B. aufgrund Screeplot)
- Die Faktorenlösung auf Konsistenz überprüfen
- Erfordernis: für alle Faktoren ein Cronbach´s Alpha >0.7
- dann Abspeicherung der Faktoren als Faktorwerte und damit weiterrechnen
- bei Faktoren <0.7: so lange die am schlechtesten zum Faktor beitragenden Items
entfernen, bis der Wert bei neuem Rechnen der Faktorenanalyse o.k. ist (dann s.o.)
Fall B: ad-hoc Fragebogen
- Da kein standardisierter Fragebogen vorlag, haben Sie einen ad-hoc Fragebogen mit z.B. 20 Items zusammengestellt (z.B. zur Wirkung von 3D-Filmen)
- Die Auswertung nicht auf Basis der Einzelitems (wäre besonders nachteilig wenn Berücksichtigung als moderierende Variable, z.B. Motive der Internetnutzung)
- zunächst Faktorenanalyse (Items werden zu wenigen Faktoren zusammenfasst)
- Durchführung einer explorativen Faktorenanalyse
- Üblich: Hauptkomponentenanalyse mit Varimax Rotation
- Zunächst Eigenwertkriterium nutzen, um Faktorenanzahl bestimmen zu lassen
- Ergeben sich keine semantisch sinnvollen/eindeutig benennbaren Faktoren, andere
Faktorenanzahl ausprobieren (z.B. aufgrund Screeplot)
- Die Faktorenlösung auf Konsistenz überprüfen
- Erfordernis: für alle Faktoren ein Cronbach´s Alpha >0.7
- dann Abspeicherung der Faktoren als Faktorwerte und damit weiterrechnen
- bei Faktoren <0.7: so lange die am schlechtesten zum Faktor beitragenden Items
entfernen, bis der Wert bei neuem Rechnen der Faktorenanalyse o.k. ist (dann s.o.)
Tags: VL 11
Quelle:
Quelle:
Wie sieht Schritt 4 bei der prototypischen Vorgehensweise zur Datenanalyse genauer aus?
Inferenzstatistik
- Wenn es eine Unterschiedshypothese oder eine entsprechende
Fragestellung gibt, werden diese nun geprüft
- dazu werden (je nach Hypothese/Fragestellung) entweder t-Test,
ein- oder mehrfaktorielle Varianzanalyse, Varianzanalyse mit
Messwdh. oder Chi2-Test (je nach Skalenniveau) genutzt
- vgl. Entscheidungsbaum
- moderierende Variablen
- wenn metrisch als Kovariate (z.B. Motive der Mediennutzung),
- wenn nominal als weiterer fester Faktor (UV) in einer mehrfakt. VA
(z.B. Geschlecht)
- Soll eine metr. Variable als fester Faktor genutzt werden, muss
sie vorher in wenige Gruppen aufgeteilt werden (entweder durch
Mediansplit oder Einteilung in 4 Gruppen durch visuelle
Klassierung) – z.B. Personen, die eine höhere/niedrigere Intelligenz aufweisen
- Wenn es eine Unterschiedshypothese oder eine entsprechende
Fragestellung gibt, werden diese nun geprüft
- dazu werden (je nach Hypothese/Fragestellung) entweder t-Test,
ein- oder mehrfaktorielle Varianzanalyse, Varianzanalyse mit
Messwdh. oder Chi2-Test (je nach Skalenniveau) genutzt
- vgl. Entscheidungsbaum
- moderierende Variablen
- wenn metrisch als Kovariate (z.B. Motive der Mediennutzung),
- wenn nominal als weiterer fester Faktor (UV) in einer mehrfakt. VA
(z.B. Geschlecht)
- Soll eine metr. Variable als fester Faktor genutzt werden, muss
sie vorher in wenige Gruppen aufgeteilt werden (entweder durch
Mediansplit oder Einteilung in 4 Gruppen durch visuelle
Klassierung) – z.B. Personen, die eine höhere/niedrigere Intelligenz aufweisen
Tags: VL 11
Quelle:
Quelle:
Wie sieht Schritt 5 bei der prototypischen Vorgehensweise zur Datenanalyse genauer aus?
Regressionsanalyse
- abschließend kann eine Regressionsanalyse durchgeführt werden (bzw. je nach Fragestellung wird direkt eine Regressionsanalyse durchgeführt)
- wenn sich theoretisch ein Modell über den Zusammenhang
zwischen den Variablen ableiten lässt
oder
- um die Relation der Variablen untereinander zu klären
- schrittweise Regressionsanalyse (explorativen Charakter)
- hierarchische Analyse, wenn ein Modell oder theor. abgeleitete
Hypothesen vorhanden
- die moderierte Regression kann durchgeführt werden, wenn
zusätzlich Wissen/Modell darüber besteht, dass zwei Variablen
miteinander interagieren
- abschließend kann eine Regressionsanalyse durchgeführt werden (bzw. je nach Fragestellung wird direkt eine Regressionsanalyse durchgeführt)
- wenn sich theoretisch ein Modell über den Zusammenhang
zwischen den Variablen ableiten lässt
oder
- um die Relation der Variablen untereinander zu klären
- schrittweise Regressionsanalyse (explorativen Charakter)
- hierarchische Analyse, wenn ein Modell oder theor. abgeleitete
Hypothesen vorhanden
- die moderierte Regression kann durchgeführt werden, wenn
zusätzlich Wissen/Modell darüber besteht, dass zwei Variablen
miteinander interagieren
Tags: VL 11
Quelle:
Quelle:
Wie sieht Schritt 6 bei der prototypischen Vorgehensweise zur Datenanalyse genauer aus?
Clusteranalyse
- Wenn man eine Typologie entwickeln will (z.B. eine Typologie
von Internetnutzern) - Etwa um durch eine solche Typologie zusätzliche Varianz in
Varianzanalysen aufzuklären
- Bildung von Gruppen von PERSONEN
- basierend auf mehreren unkorrelierten und z-standard. (metr.n &
nom.) Variablen
- Variablen sollten theoriebasiert ausgewählt werden
- möglich ist eine hierarchische Clusteranalyse oder ein
partitionierendes Verfahren (Clusterzentrenanalyse)
- Zugehörigkeit jeder Pers. zu einem Cluster wird in einer neuen
Variable angegeben
- die Clusterzugehörigkeit kann dann als UV oder zweiter fester
Faktor zur zusätzlichen Aufklärung von Varianz genutzt werden
- Anwendung eher selten, vorherige Verfahren werden stärker genutzt
- Wenn man eine Typologie entwickeln will (z.B. eine Typologie
von Internetnutzern) - Etwa um durch eine solche Typologie zusätzliche Varianz in
Varianzanalysen aufzuklären
- Bildung von Gruppen von PERSONEN
- basierend auf mehreren unkorrelierten und z-standard. (metr.n &
nom.) Variablen
- Variablen sollten theoriebasiert ausgewählt werden
- möglich ist eine hierarchische Clusteranalyse oder ein
partitionierendes Verfahren (Clusterzentrenanalyse)
- Zugehörigkeit jeder Pers. zu einem Cluster wird in einer neuen
Variable angegeben
- die Clusterzugehörigkeit kann dann als UV oder zweiter fester
Faktor zur zusätzlichen Aufklärung von Varianz genutzt werden
- Anwendung eher selten, vorherige Verfahren werden stärker genutzt
Tags: VL 11
Quelle:
Quelle:
Was kritisiert Gigerenzer 2004 in seinem Text "mindless statistics"?
Was ist mit Null-Ritual gemeint? Wer war noch gegen dieses Verfahren?
Was ist mit Null-Ritual gemeint? Wer war noch gegen dieses Verfahren?
Er kritisiert, dass alle Forscher das so genannte „Null-Ritual“ anwenden, ohne es kritisch zu hinterfragen:
"Statistische Rituale verdrängen das statistische Denken in den Sozialwissenschaften."
... und das, obwohl die Statistik-Entwickler sich das eigentlich anders gedacht hatten...
Außerdem ist Girenzer der Meinung, dass Beurteilen nicht willkommen ist.
Null-Ritual: das Nullhypothesen-Testen.
- stelle eine statistische Nullhypothese ("kein Hauptunterschied", "keine Korrelation.")
- spezifiziere nicht die Vorhersagen deiner Untersuchungshypothese
oder irgendeiner stichhaltigen Alternativhypothese
- Nutze 5% als Begrenzung um 'die Null' zu widerlegen
- Falls signifikant, akzeptiere deine Untersuchungshypothese.
- weise dein Ergebnis als p<0.05 oder p<0.01 oder p<0.001 aus,
welches auch immer als nächstes am erhaltenen p-Wert dran ist
- nutze immer diese Vorgehensweise
weitere Gegner: Neyman und Pearson
"Statistische Rituale verdrängen das statistische Denken in den Sozialwissenschaften."
... und das, obwohl die Statistik-Entwickler sich das eigentlich anders gedacht hatten...
Außerdem ist Girenzer der Meinung, dass Beurteilen nicht willkommen ist.
Null-Ritual: das Nullhypothesen-Testen.
- stelle eine statistische Nullhypothese ("kein Hauptunterschied", "keine Korrelation.")
- spezifiziere nicht die Vorhersagen deiner Untersuchungshypothese
oder irgendeiner stichhaltigen Alternativhypothese
- Nutze 5% als Begrenzung um 'die Null' zu widerlegen
- Falls signifikant, akzeptiere deine Untersuchungshypothese.
- weise dein Ergebnis als p<0.05 oder p<0.01 oder p<0.001 aus,
welches auch immer als nächstes am erhaltenen p-Wert dran ist
- nutze immer diese Vorgehensweise
weitere Gegner: Neyman und Pearson
Tags: kritische Reflektion, VL 11
Quelle:
Quelle:
Was kritisierte Sir Ronald A. Fisher bereits 1956 speziell an der Statistik?
Was sind weitere Kritikpunkte zur Statistik allgemein?
Was sind weitere Kritikpunkte zur Statistik allgemein?
"Kein Wissenschaftler hat ein feststehendes Signifikanzlevel, auf das er sich über Jahre hinweg in allen Umständen zurückbezieht und daraufhin Hypothesen ablehnt. Er setzt sich besser mit jedem einzelnen Fall auseinander, im Lichte seiner Belege und Ideen."
frei übersetzt^^
- Lehrbücher und Curricula berücksichtigten nicht die gesamte „Toolbox“ -> deskriptive Statistik, Tukey’s explorative Methoden, Bayes´sche Statistik, Neyman- Pearson-Entscheidungstheorie und Wald’s sequentielle Analyse
- statt dessen wird ausschließlich das „Null-Ritual“ gelehrt
frei übersetzt^^
- Lehrbücher und Curricula berücksichtigten nicht die gesamte „Toolbox“ -> deskriptive Statistik, Tukey’s explorative Methoden, Bayes´sche Statistik, Neyman- Pearson-Entscheidungstheorie und Wald’s sequentielle Analyse
- statt dessen wird ausschließlich das „Null-Ritual“ gelehrt
Tags: VL 11
Quelle:
Quelle:
Fisher hat das Nullhypothesen-Testen erfunden, sieht es aber kritisch. Warum?
- ursprüngl. Fassung: Nullhypothese war nicht zwingend die These, die keinen Unterschied postulierte, sondern irgendeine inhaltliche These, die widerlegt werden konnte
- damals wurde kein konstanter Level von .05 vorgeschlagen
- Nullhypothesen Testen wurde sogar von Fischer als die primitivste statistische Vorgehensweise empfunden und sollte nur für Probleme gewählt werden, über die wenig der kein Wissen vorliegt
- damals wurde kein konstanter Level von .05 vorgeschlagen
- Nullhypothesen Testen wurde sogar von Fischer als die primitivste statistische Vorgehensweise empfunden und sollte nur für Probleme gewählt werden, über die wenig der kein Wissen vorliegt
Tags: VL 11
Quelle:
Quelle:
Wie zeigte Gigerenzer, dass p-Werte oft falsch interpretiert werden?
- Fragebogen an Statistikdozenten u. Studierende, die die Statistikprüfung bestanden hatten (an 6 dt. Unis).
„You compare the means of your control and experimental groups (say 20 subjects in each sample). You use a simple independent means t-test and your result is significant (t = 2.7, d.f. = 18, p = 0.01). Please mark each of the statements below as “true” or “false.” “
- der p-Wert bedeutet: die Wahrscheinlichk., dass die erhaltenen Daten (oder extremere Werte) gefunden werden, unter der H0
- 1 & 3 falsch, da ein Signifikanztest niemals Hypothesen endgültig verwerfen oder bestätigen kann
- 2 & 4 falsch, da der Signifikanzwert nicht die Wahrscheinlichk. für eine Hypothese angibt (das könnten nur Bayes´sche Verfahren), 5 macht letztlich dieselbe Behauptung wie 2 und ist daher auch falsch → Auch Aussage 6 ist falsch
- 90% auch der Dozenten glaubten, dass mind. eine der Aussagen stimmt
- die Aussagen 5 und 6 wurden am ehesten geglaubt
- Insgesamt wurde die Aussagekraft des p-Wertes überschätzt
- Laut Gigerenzer wird das null-Ritual nur durch diese Illusion über die Aussagekraft des p-Wertes aufrecht erhalten
„You compare the means of your control and experimental groups (say 20 subjects in each sample). You use a simple independent means t-test and your result is significant (t = 2.7, d.f. = 18, p = 0.01). Please mark each of the statements below as “true” or “false.” “
- der p-Wert bedeutet: die Wahrscheinlichk., dass die erhaltenen Daten (oder extremere Werte) gefunden werden, unter der H0
- 1 & 3 falsch, da ein Signifikanztest niemals Hypothesen endgültig verwerfen oder bestätigen kann
- 2 & 4 falsch, da der Signifikanzwert nicht die Wahrscheinlichk. für eine Hypothese angibt (das könnten nur Bayes´sche Verfahren), 5 macht letztlich dieselbe Behauptung wie 2 und ist daher auch falsch → Auch Aussage 6 ist falsch
- 90% auch der Dozenten glaubten, dass mind. eine der Aussagen stimmt
- die Aussagen 5 und 6 wurden am ehesten geglaubt
- Insgesamt wurde die Aussagekraft des p-Wertes überschätzt
- Laut Gigerenzer wird das null-Ritual nur durch diese Illusion über die Aussagekraft des p-Wertes aufrecht erhalten
Tags: VL 11
Quelle:
Quelle:
Was hat Gigerenzer mit seiner Kritik erreicht?
- Durch Kritik an dem Verfahren (unter anderem von Gigerenzer) hat sich das Vorgehen gewandelt: es müssen nun auch deskriptive Ergebnisse berichtet werden (Mittelwerte, Standardfehler, Standardabweichungen, Konfidenzintervalle)
- Laut Gigerenzer ist eine gute Dokumentation der deskriptiven Ergebnisse unverzichtbar
- Auch Effektstärken werden mehr und mehr berichtet, weil sie aussagekräftiger sind
- Laut Gigerenzer ist eine gute Dokumentation der deskriptiven Ergebnisse unverzichtbar
- Auch Effektstärken werden mehr und mehr berichtet, weil sie aussagekräftiger sind
Tags: VL 11
Quelle:
Quelle:
Kartensatzinfo:
Autor: P-H-I-L
Oberthema: Statistik
Thema: Inferenzstatistik
Veröffentlicht: 13.04.2010
Schlagwörter Karten:
Alle Karten (167)
Chi-Quadrat-Test (12)
Clusteranalyse (21)
Effektstärke (2)
Kruskal-Wallis (4)
Regressionsanalyse (24)
Tutorium (2)
Übung (6)
Varianzanalyse (68)
VL 09 (17)
VL 10 (15)
Vl 10 (2)
VL 11 (15)
Vl 11 (1)
VL03 (14)
VL04 (22)
VL05 (11)
VL06 (2)
VL07 (11)
VL08 (21)