CoboCards App FAQ & Wünsche Feedback
Sprache: Deutsch Sprache
Kostenlos registrieren  Login

Hol' Dir diese Lernkarten, lerne & bestehe Prüfungen. Kostenlos! Auch auf iPhone/Android!

E-Mail eingeben: und Kartensatz kostenlos importieren.  
Und Los!
Alle Oberthemen / Psychologie / Forschungsmethoden für Fortgeschrittene

Forschungsmethoden - Master Uni Wien (117 Karten)

Sag Danke
1
Kartenlink
0
1.Warum bedürfen auch publizierte Forschungsergebnisse einer gewissen Skepsis?
−Nur 39% publizierter Studien werden als replizierbar betrachtet → Publikationen oftmals nicht replizierbar
−Replikation in wissenschaftlicher Forschungspraxis oftmals unattraktiv → Mythisierung von Forschungsergebnissen, die teilw. hätten widerlegt werden können
−Massive Nicht-Veröffentlichung, Vorauswahl & Publikationsdruck → Mindert Qualität der Publikationen, daher mit Skepsis zu betrachten
−(Effekt kleiner werdender Effektgrößen)
−Bsp.: Kritik an post-hoc Interpretationen, kanonische Interpretation von exp. Ergebnissen
2
Kartenlink
0
2.Geben Sie einen Überblick über die verschiedenen Zielsetzungen wissenschaftlicher Untersuchungen und geben Sie für jede ein eigenes Beispiel.
−explorativ (sondierend, erforschend, hypothesengenerierend); Ziel ist erste Phänomenbeschreibung & Hypothesenformulierung mittels erkundender Untersuchung in einem vergleichsweise unerforschtem Feld → „Was sind mögliche pathogenetische Faktoren der postpartalen Depression bei jungen Müttern?“
−beschreibend; Populationsbeschreibende Untersuchung Zwecks Beschreibung der Population anhand einer/mehrerer Merkmale mittels Stichprobenerhebung zur Schätzung des Populationsparameters → z.B. „Untersuchung der Häufigkeit von illegalem Substanzkonsum innerhalb verschiedenen Altersgruppen“
−hypothesenprüfend; (explanativ) Formulierung von Hypothesen auf Grundlage des Forschungsstandes/Theorieentwicklung bzw. auf der Grundlage von explorativen Untersuchungen → z.B. „Führt die Gabe von Schmerzmitteln zu einer kurzfristigen Reduktion des Empathievermögens?“
3
Kartenlink
0
3.Erläutern Sie mögliche Strategien der Themenfindung zu einer wissenschaftlichen Untersuchung.
−Introspektion
−Fallstudienanalyse (v.a. qualitativ)
−Replikation von vorherigen Studienergebnissen (durchaus sinnvoll, wenn bedacht wird wie wenig Studien letztlich replizierbar sind!)
−Meta-Analyse
−Auffällige/paradoxe Phänomene oder Widersprüche bzw. Alltagsphänomene
−Problemverhalten analysieren
4
Kartenlink
0
4.Nach welchen Kriterien lassen sich Untersuchungsideen bewerten (mit jeweils kurzer Erläuterung)?
−Präzision der Formulierung → je präziser desto greifbarer; detaillierte Formulierung vor der Datenerhebung um Unklarheiten/Widersprüche auszuschließen
−Empirische Untersuchbarkeit → Ideen müssen widerspruchsfrei, operationalisierbar und prinzipiell widerlegbar sein (!)
−Relevanz für Wissenschaft und Gesellschaft (potentieller Mehrwert gegeben?)
−Ethische Erwägungen (vgl. Milgram Experiment oder Tuskegee-Syphilis Studie) → Wertabwägung; Erkenntnisnutzen vs. Belastung der Teilnehmer*innen; Freiwilligkeit (?); Anonymität; Ethikkomitees
5
Kartenlink
0
5.Was ist bei der Planung einer Untersuchung festzulegen?
−Literaturrecherche → Überblick über Forschungsstand verschaffen; Vertiefung
−Wahl der Forschungsmethode → muss Fragestellung/Zielsetzung entsprechen
−Definitionen/Operationalisierung → Konstrukte/Begriffe (Begriffsklärung, Operationalisierung festlegen; diese möglichst reliabel und valide; Skalierung und Messung) → Bspw. sollten die entwickelten Items zur Erfassung eines bestimmten Konstrukts dieses auch wirklich widerspiegeln; auch sollte auf ein angemessenes Skalenniveau bei der Datenerfassung- bzw. Auswertung geachtet werden
−Angemessene Stichprobenauswahl (z.B. Stichprobenberechnung durch g-Power-Analyse) + Entscheidung darüber wie rekrutiert werden soll (z.B. Anfallsstichprobe vs. Opt-In-Stichprobe); Auswahl an Stimuli, die Proband*innen vorgelegt werden soll
6
Kartenlink
0
6.Definieren sie „explorative Untersuchung“. Erläutern Sie die verschiedenen Typen von Explorationen (theoriebasiert etc.).
= zur Generierung von Hypothesen, betrifft üblicherweise ein Feld, das noch wenig erforscht wurde & sondiert werden soll; Ziel = Phänomenbeschreibung und erste Hypothesenformulierung

−Typen: Theoriebasierte Exploration → Ableitung neuer Hypothesen auf Grundlage systematischer Durchsicht bzw. Analyse von bereits bestehenden wissenschaftlichen/alltäglichen Theorien; Methodenbasierte Exploration → Vergleich und Variation von Methoden; welche wurden noch nicht verwendet? ggf. Kombination? Empirisch-quantitative Exploration → Darstellung und Aufbereitung quantitativer Daten zur Sichtbarmachung unberücksichtigter Muster und Regeln; Empirisch-qualitative Exploration → Darstellung und Aufbereitung qualitativer Daten zur Sichtbarmachung unberücksichtigter Muster, Verläufe und Phänomene (oft mit explorativ assoziiert)
7
Kartenlink
0
7.V: Eine Untersuchung soll klären, welche Einkommensverhältnisse (Einkommen bzw. staatliche/private Zuwendungen) alleinerziehende Eltern charakterisieren. Um welche Art von Exploration handelt es sich dabei?
−Empirisch-quantitative Exploration
8
Kartenlink
0
8.Welche Arten von explorativen Datenerhebungen kennen Sie (gemeint ist die Liste von offener Beobachtung bis Aktionsforschung)? Geben Sie jeweils eine kurze Erläuterung.
−Offene Befragung (biografisch/narrativ von Einzelpersonen oder Gruppen) → Einblick in Meinungen, Lebensgeschichte, Probleme

−Feldbeobachtung → Teilnahme an sozialem Leben eines interessierenden Systems; Suche nach Ereignissen, Mustern, Gesetzmäßigkeiten

−Einzelfallanalyse → z.B. in Selbst- oder Fremdbeobachtung als Vorbereitung auf Stichprobenuntersuchung ; Ein Fall soll in seiner Ganzheit erfasst werden

−Non-reaktive Verfahren; Datenerhebungsmethode die keinerlei Einfluss auf zu untersuchende Personen, Ereignisse, Prozesse hat → kein Kontakt zu den zu untersuchenden Personen (!)

−Inhaltsanalysen; zentrale Themen/Bedeutungen von Texten/Objekten werden mehrschrittig herausgearbeitet;

−Aktionsforschung → Wissenschaftler*innen definieren zusammen mit Betroffenen die Problemstellung, suchen nach Ursachen und entwerfen Lösungsvorschläge (Interventionen) → Erfolg gemeinsam bewerten/evaluieren → Modifikation der Theorie/Lösung (Expert*innen & Betroffene = gleicher Status)
9
Kartenlink
0
9.V: Geben Sie ein eigenes Beispiel für eine Feldbeobachtung/Offene Befragung/ Einzelfallanalyse/Non-reaktive Verfahren/Inhaltsanalyse/Aktionsforschung
−Feldbeobachtung: Die Anzahl an Fixierungen von Patient*innen im psychiatrischen Kontext soll durch die Entwicklung von spezifischen Maßnahmen reduziert werden, hierzu verbringt das Forschungsteam zunächst einmal einen Monat in der Psychiatrie XY um sich ein genaues Bild der Situation verschaffen zu können.
−Offene Befragung: biografisches Interview von jungen Frauen mit Missbrauchserfahrungen in früher Kindheit → Einblicke in Muster, Traumatisierung, Folgestörungen etc.
−Einzelfallanalyse: s.o. nur mit einer Person
−Non-reaktive Verfahren: Logfileanalyse zur unverzerrten Dokumentation der Internetnutzung (z.B. Analyse des online Verhaltens bzw. Reaktionen von Twitter-Usern nach dem Anschlag auf Charlie-Hebdo)
−Inhaltsanalyse: Analyse des zuvor beschriebenen biografischen Interviews → Strukturen werden herausgearbeitet oder: Analyse
−Aktionsforschung: Konfliktprävention und –lösung an Schule XY → gemeinsam mit Schlüler*innen und Lehrer*innen Ursachen, Probleme besprechen und nach Lösungen suchen + Intervention durchführen, diesen anschließend evaluieren
10
Kartenlink
0
10. V: Um die Lebensqualität in Pflegeheimen zu untersuchen, verbringt ein Forschungsteam einen Monat in einer entsprechenden Einrichtung. Um welche Art von Studie handelt es sich dabei (mit Begründung)?
−Feldbeobachtung → es wird aktiv ins Feld gegangen ohne dies vorerst dabei zu verändern, hierbei werden vermutlich Abläufe, Verhaltensweisen, (Hierarchie-) Strukturen, Prozesse etc. zunächst einmal vom Forschungsteam beobachtet; Forschen nehmen dabei am sozialen Leben des interessierenden Systems (Pflegeheim) teil u.a. um Muster, Verhaltensweisen, Ereignisse und Gesetzmäßigkeiten herauszuarbeiten
11
Kartenlink
0
11.Definieren Sie populationsbeschreibende Untersuchungen.
−beschreibend; Populationsbeschreibende Untersuchung Zwecks Beschreibung der Population anhand einer/mehrerer Merkmale mittels Stichprobenerhebung zur Schätzung des Populationsparameters → z.B. „Untersuchung der Häufigkeit von illegalem Substanzkonsum innerhalb verschiedenen Altersgruppen“ → Population soll anhand von einem oder mehreren Merkmalen beschrieben werden. Hierzu wird mittels einer Stichprobenerhebung der Populationsparameter geschätzt!
12
Kartenlink
0
12.Was sind hypothesenprüfende Untersuchungen?
−explanativ; zur Prüfung von theoriegeleiteten Hypothesen bzw. auf der Grundlage einer explorativen Untersuchung (es bestehen bereits Annahmen/Theorien über den zu untersuchenden Forschungsgegenstand)
13
Kartenlink
0
13.Wodurch ist ein Experiment gekennzeichnet?
−geplante & systematische Beobachtung zum studieren der Effekte der UV auf die AV
−Resultate müssen replizierbar sein
−Exp. Bedingung willkürlich hergestellt und systematisch variiert (mind. 2 Gruppen)
−Konstanthalten von konfundierenden Faktoren (Störvariablen kontrollieren)
−Randomisierte Zuteilung zu den Gruppen
14
Kartenlink
0
14. Was ist eine Randomisierung, und welchen Effekt hat sie?
−Zufällige Zuteilung von Personen zu den unterschiedl. experimentellen Bedingungen (z.B. Versuchs- und Kontrollgruppe)
−Zufallsgenerator, Los o.ä.
−Effekt= systematische personenbezogene Störvariablen können ausgeschaltet werden(!); zufällige Unterschiede jedoch möglich + Effekte können möglicherweise auch durch andere Theorie erklärt werden
15
Kartenlink
0
15.Was sind quasi-experimentelle Untersuchungen?
−Arbeit mit natürlichen Gruppen außerhalb Laborsettings
−Entspricht einem Experiment insofern, als Pbn unterschiedlichen Bedingungen (Variable, unabhängige; UV) zugewiesen werden und Effekte der Bedingungen auf eine abhängige Variable (AV) untersucht werden sollen. Im Unterschied zum Experiment erfolgt jedoch keine zufällige Zuweisung (Randomisierung) der Pbn zu den Vergleichsgruppen. Hierdurch besteht die Gefahr einer Konfundierung, da ggf. unkontrollierte Merkmale, hinsichtlich derer sich die Vergleichsgruppen systematisch unterscheiden, die interne Validität beeinträchtigen können. Folglich kann eine eindeutige Kausalbeziehung von UV und AV nicht abgeleitet werden.
−Achtung → Prä-experimentelle Unterschiede kommen so mit in die Untersuchung hinein und dürfen nicht mit exp. Effekten verwechselt werden
16
Kartenlink
0
16.V: Entwerfen Sie in wenigen Stichworten ein Quasi-Experiment, um den Effekt eines Programms zu testen, welches Schülerinnen einer AHS zu einem naturwissenschaftlichen Studium motivieren soll. Was sind die Schwächen dieses Designs? Wie kann man sie minimieren?
−Erstellungs eines Versuchsplans; Programm soll an einer Schulklassen der AHS XY getestet werden; hierzu werden zwei Parallelklassen ausgewählt (Schüler*innen ungefähr gleichaltrig + Klassengröße gleich); eine der beiden Klassen erhält Programmintervention; dabei sollen Ergebnisvariationen (Unterschiede) verglichen werden; Nach Abschluss der Programmintervention werden beide Klassen hinsichtlich ihrer Motivation, ein naturwissenschaftliches Studium anzustreben, verglichen → Klasse, die Intervention erhalten hat womöglich im Anschluss motivierter?
−Nachteil: Prä-experimentelle Unterschiede wurden missachtet: Klasse ohne Intervention konnte möglicherweise durchschnittl. schon vorab eine geringere Motivation aufgewiesen haben (keine gleichen Ausgangsbedingungen!) → Prä-exp. Unterschiede können mit exp. Effekten verwechselt werden
−Minimierung dieses Effekts durch baseline-comparison, wenn Unterschiede vorhanden, dann→ Parallelisierung
17
Kartenlink
0
17.Was ist Parallelisierung, und welchen Effekt hat sie?
−Bei baseline-comparison Unterschiede festgestellt → Parallelisierung!
−Paare „ähnlicher“ Personen bilden und diese vergleichen → So können prä-experimentelle Unterschiede vorab festgestellt werden (baseline comparison), die andernfalls ggf. mit experimentellen Effekten verwechselt worden wären
−Jedoch: Gleicht möglicherweise nur Variablen aus, die explizit berücksichtigt wurden
18
Kartenlink
0
18.Definieren Sie interne und externe Validität, und charakterisieren Sie Feld- bzw. Laborstudie mithilfe dieser Begriffe.
−Interne Validität: Veränderungen in der AV sind eindeutig auf den Einfluss der UV zurückzuführen (hoch bei experimenteller Laborstudie, da Störvariablen konstantgehalten werden können, jedoch geringe externe Validität, da Situation artifiziell; bei Quasiexp. Bedingung sogar beides niedrig) → mit realer Situation überhaupt vergleichbar?
−Externe Validität: Die in Stichprobenuntersuchung erhobenen Ergebnisse können auf andere Personen/Situationen/Zeitpunkte generalisiert werden (bei Feldstudie hohe externe Validität, da echte Kennzahlen erfasst werden, interne Validität jedoch gering, da Ursachen für Veränderung vielfältig sein können)
19
Kartenlink
0
19.V: Sie testen den Effekt von Mobiltelefonen auf die Gesundheit, indem Sie VielbenutzerInnen mit Wenig-BenutzerInnen vergleichen. Um welches Versuchsdesign handelt es sich dabei?
−Je nach Art der Untersuchung um ein Quasiexperiment oder eine Feldstudie, da die Gruppen bereits bestehen und nicht künstlich geschaffen werden. Sollten die Personen im Afsxölltag beobachtet und ihre Gesundheit eingeschätzt werden, ist es eine Feldstudie, während die Erhebung mittels Fragebogen vorher und nach einem Telefonat ein Quasiexperiment ist.
20
Kartenlink
0
Welche Versuchsdesigns gibt es (werden genannt)?
-Experiment
-Quasi-Experiment
-Feldstudie
21
Kartenlink
0
20.V: Skizzieren Sie ein experimentelles/ein nicht-experimentelles Versuchsdesign für eine Studie, welche den Effekt drastischer Fotos auf Zigarettenpackungen erfassen soll.
−Experimentelles Versuchsdesign: Die Einstellung zu Zigaretten wird erhoben, Zigaretten mit drastischen Fotos werden gezeigt, die Einstellung wird erneut erhoben. (Führt ggf. nicht zu tatsächlicher Einstellungsänderung bzw. verändertem Kaufverhalten → geringe externe Validität)
−Nicht-experimentelles Versuchsdesign (Feldstudie): die Verkaufszahlen von Zigaretten werden erhoben, Zigaretten mit Fotos eingeführt, Verkaufszahlen werden wieder erhoben. (Zwar hohe externe Validität, jedoch kann Ursache auch andere sein als Einstellungsänderung → geringe interne Validität)
22
Kartenlink
0
21.Kann es „Gender-Experimente“ geben?
−Ja und nein. Die Zuteilung des Geschlechts kann nicht randomisiert erfolgen, jedoch kann die Person, die als unabhängige Variable eingesetzt wird, in ihrem Geschlecht variiert werden.
23
Kartenlink
0
22.Erklären Sie: doppelblind, double-dummy, RCT, baseline comparison, manipulation check
−baseline comparison: Vergleich der experimentellen Gruppen (v.a. bei Quasi-Experimenten ) zur Verhinderung der Beeinflussung des Ergebnisses durch prä-experimentelle Effekte → (natürliche) Gruppen werden bereits vorab (und nach dem Experiment) verglichen; ggf. bestehende Unterschiede können dann parallelisiert werden
−doppelblind: Weder Versuchsleiter*in noch Testteilnehmer*in wissen über Zugehörigkeit bescheid
−double-dummy: Nicht Behandlung wird als Behandlung maskiert (z.B. Placebo)
−RCT: randomized controlled trial → Randomized Controlled Trial für medizinische Effektkontrollstudien; prospektiv = vorher geplant; Randomisierung problematisch; perfektes Experiment (zumindest theoretisch); Randomisierung oft ethisch problematisch (Nicht-Behandlung! oft über „Wartegruppen“ realisiert) → Bedarf nach Ethikkommittes
−manipulation check → Prüfung ob Maskierung durchschaut wurde dh. ob aktivierende Bedingung wirklich besteht („cover story“)
24
Kartenlink
0
23.V: Überlegen Sie, was die im Kapitel klinische Standards erwähnten Begriffe konkret bedeuten würden, wenn Sie den Effekt von Akupunktur mittels einer klinischen Studie nachweisen wollen.
−zunächst müsste baseline comparison vorgenommen werden, um vorab bestehende Unterschiede zwischen den Proband*innen ausgleichen zu können bzw. diese bei den Effektmessungen berücksichtigen zu können
−Im Falle von Akupunktur sind doppelblind, double-dummy (Placebo) und manipulation check praktisch ausgeschlossen → Akupunktur Behandlung ließe sich bei einer Placebo Gruppe nur schwer vortäuschen
−Randomisierte Zuteilung (RCT) wäre im Falle von Akupunkturbehandlung über eine Warteliste möglich, allerdings ethisch ggf. bedenklich, da, falls Wirksamkeit eindeutig nachgewiesen werden konnte, die Behandlung letztlich nicht verwehrt werden sollte
25
Kartenlink
0
24.Erklären Sie: per protocol, as treated, intention to treat. Was ist die Idee hinter intention to treat?
→ Wenn Behandlung vom ursprünglichen Plan abweichen → Auswertung
−per protocol: Nur Patient*innen berücksichtigen, die sich konform verhalten haben
−as treated: Patient*innen in der Reihenfolge auswerten, in der sie behandelt wurden (auch wenn ursprünglich anders geplant)
−intention to treat: Patient*innen nach urspürnglicher Zuordnung zur Behandlung auswerten –> Abweichung zum Plan bewusst ignorieren um Randomisierung beizubehalten
26
Kartenlink
0
25.Ordnen Sie die Begriffe per protocol, as treated und intention-to-treat richtig zu:
V: In einer klinischen Studie gibt es ungeplante Wechsel von der Kontroll- zur Versuchsgruppe, weil einige Fälle der Kontrollgruppe nicht unbehandelt bleiben sollen. Die statistische Auswertung kann nun erfolgen, indem jede Person der ursprünglich für sie vorgesehenen Gruppe zugeordnet wird: _, oder indem die wechselnden Personen aus der Auswertung gestrichen werden: oder indem jede Person der Behandlung zugeordnet wird, welche sie tatsächlich erhalten hat: __
1.intention-to-treat
2.per protocol
3.as treated

27
Kartenlink
0
26.Erklären Sie den Begriff „Evidenzpyramide“. Welche Studien liefern „höherwertige“ Evidenz?
−Die Evidenzpyramide besteht aus mehreren „Stufen“, die jeweils einen Studientyp abbilden
−Der jeweilige Studientyp entspricht einem Evidenzgrad, der für die wissenschaftliche Beweiskraft steht. Der Evidenzgrad nimmt hier von unten nach oben zu.
−Höherwertige Evidenzen liefern also die oberen Studientypen, allen voran die Randomisierte kontrollierte Doppelblindstudie, RCT

Achtung: gilt vor allem für internale Validität
28
Kartenlink
0
27.Welche qualitativen Zugänge zur Datenerhebung kennen Sie (mit kurzer Erläuterung)
−Interviews: Befragungs- und Ausfragegespräch; kann unterteilt werden nach Ausmaß der Standardisierung (strukturiert – halb strukturiert – unstrukturiert), nach dem Autoritätsanspruch des Interviewers (weich – neutral – hart), nach der Art des Kontakts (direkt – telefonisch – schriftlich), nach der Anzahl der befragten Personen (Einzelinterview – Gruppeninterview – Survey).
−Feldforschung: systematische Beobachtung von Geschehnissen in ihrer natürlichen Umwelt. Nachteil: Störfaktoren. Vorteil: Generalisierbarkeit.
−Inhaltsanalyse: Zentrale Themen und/oder Bedeutungen von Texten oder anderen Objekten (Bilder, Fotos, Kunstobjekte, …) werden herausgearbeitet. (Bsp.: Facebook-Profil, Wahlplakate)
29
Kartenlink
0
28.Was ist Operationalisierung? Was ist Messung? Was ist eine Skala?
−Operationalisierung: Vorschrift (mittels Angabe der Messoperationen bzw. der messbaren Ereignisse, die das Vorliegen anzeigen soll), wie ein theoretisches Konstrukt konkret messbar gemacht werden soll
−Messung: Zuordnung von Zahlen zu Objekten oder Ereignissen; Voraussetzung ist hierbei, dass die empirische Beziehung sich strukturtreu in eine numerische abbilden lässt (oftmals keine Einheiten in der Psychologie)
−Skala: Verknüpfung zwischen empirischen und numerischen Beziehungen
30
Kartenlink
0
29.Welche Methoden der Datenerfassung kennen Sie?
−Mündl. Befragung (Interview, Gruppendiskussion)
−Beobachtung
−Inhaltsanalyse
−Schriftliche Befragung (Fragebogen)
−Einholen einer Beurteilung/Bewertung
−Testvorgabe
−Experiment
31
Kartenlink
0
30.Nach welchen Kriterien lassen sich Interviews charakterisieren? Welche Möglichkeiten gibt es für Gruppen?
−Ausmaß der Standardisierung (strukturiert, halb strukturiert, unstrukturiert)
−Autoritätsanspruch des Interviewers (weich, neutral, hart)
−Art des Kontakt (direkt, telefonisch, schriftlich)
−Anzahl der befragten Personen (Einzel, Gruppen, Survey)

−Gruppenbefragung (meist natürliche Gruppen), Gruppendiskussion (Ziel=große Variationsbreite zu einem Thema erkunden; Fokusgruppen), Board Interview/Hearing (mehrere Interviewer, Auswahlsituation, hohe Belastung)
32
Kartenlink
0
31.Worauf ist bei der mündlichen Befragung zu achten?
−Suggestivfragen vermeiden, aber Empathie bewahren
−Kontext-Effekte beachten (Antworten vom Kontext abhängig)
−Priming-Effekte (Beantwortung der vorhergehenden Frage wirkt sich auf Beantwortung der nachfolgenden aus)
−Transkription (Aufzeichnungen müssen verschriftlicht werden; Merkmale des Gesprächsverlaufs beachten z.B. längere Pausen; Transkriptionszeichen beachten)
33
Kartenlink
0
32.Was ist eine systematische Beobachtung? Was ist dabei alles festzulegen?
−Setzt im Gegensatz zu einer Alltagsbeobachtung einen Beobachtungsplan voraus → Was wird von wem beobachtet und ist dabei wesentlich? Was darf gedeutet werden und wie? Wann und wo wird beobachtet? Wie wird protokolliert?
34
Kartenlink
0
33.Welche Schritte werden bei einer Beobachtung gesetzt? (Selektion, Abstraktion etc.)
−Selektion (Auswahl der Beobachtungsgegenstände)
−Abstraktion (Herauslösung des Ereignis aus Kontext + Reduzierung auf wesentliche Bedeutung)
−Klassifikation ( Zuordnung von Zeichen/Symbolen zu bestimmten Ereignis/Merkmalsklassen)
−Systematisierung (Zeichen/Beobachtungen werden mit Zahlen kodiert und zu Gesamtprotokoll zusammengestellt)
−Relativierung (Bezug zu Theorie wird hergestellt)
35
Kartenlink
0
34.Welche Arten von Beobachtungen kennen Sie (mit kurzer Erklärung)?
−Teilnehmende offene Beobachtung: teilnehmend = der Beobachter ist selbst Teil des zu beobachtenden Geschehens (Beobachtung wird nicht als Außenstehender gemacht), offen = der Beobachter bemüht sich NICHT seine Rolle als Beobachter zu verbergen
−Teilnehmende verdeckte Beobachtung: teilnehmend = der Beobachter ist selbst Teil des zu beobachtenden Geschehens (Beobachtung wird nicht als Außenstehender gemacht), verdeckt = der Beobachter bemüht sich seine Rolle als Beobachter zu verbergen
−Nicht-teilnehmende offene Beobachtung: nicht-teilnehmend: die Beobachtungen werden als Außenstehender gemacht, offen = der Beobachter bemüht sich NICHT seine Rolle als Beobachter zu verbergen.
−Nicht-teilnehmende verdeckte Beobachtung: nicht-teilnehmend: die Beobachtungen werden als Außenstehender gemacht, verdeckt = der Beobachter bemüht sich seine Rolle als Beobachter zu verbergen.
36
Kartenlink
0
35.Welche beiden Stichprobenzugänge gibt es bei der Beobachtung?
−Ereignisstichprobe (Ereignis wird nicht zeitlich strukturiert protokolliert, sondern nur ob und in welcher Kombination es auftritt)
−Zeitstichprobe (Beobachtung wird in bestimmte Abschnitte gegliedert)
37
Kartenlink
0
36.Was ist Cohen’s Kappa?
−Interrater-Reliabilität
−Beobachterübereinstimmung
−Cohens Kappa = relativiert die Anzahl an Übereinstimmungen an der erwarteten Anzahl an Übereinstimmungen
−k = (p0-pc)/(1-pc)
−p0= Übereinstimmungswerte/N
−pc= Randsummen rechts x Randsummen unten addiert, Summe geteilt durch n^2
38
Kartenlink
0
38.Was ist beim Zählen von Objekten oder Ereignissen zu beachten? (Bitte die konkreten Schritte angeben lt. Liste aus der Vorlesung)
→ Es muss Folgendes beachtet werden:
−Was wird gezählt? (nach welchen Eigenschaften zähle ich? z.B. was ist genau 1 jump score? → Definitionen)
−Sind die Klassifikationsmerkale leicht zugänglich?
−Welche Merkmalsausprägungen der Untersuchungsobjekte werden ausgewählt? (bei psych. Störungen z.B. mind. 3/5 Merkmalen)
−Wie sind die einzelnen Kategorien zu gewichten? (z.B. was ist Armut? weniger als 60% des Medianeinkommens? → armutsgefährdet, aber nicht arm)
−Bei qualitative Merkmale → quantizifieren
−können zwei (dichotom; z.B. hilfsbereit oder nicht hilfsbereit) oder mehr (polytom; z.B. Blutgruppen, Art des Studiums) Ausprägungen haben;
−Genauigkeitskriterium: Kategorien müssen exakt definiert sein;
−Exklusivitätskriterium: Kategorien müssen einander wechselseitig ausschließen (FALSCH wäre z.B. 10-20 und 20-30,.. → wo gehört 20 hin?);
−Exhaustivitätskriterium: Die Kategorien müssen das Merkmal erschöpfend beschreiben (Problem Kategorie „Sonstige“ – für wissenschaftliche Zwecke wenig brauchbar); alle müssen zuordenbar sein, müssen genau in eine Kategorie fallen;
−Datenerhebung endet mit der Angabe von Häufigkeiten
39
Kartenlink
0
39.Wie erfolgt die Kategorienbildung?
−Kategorienbildung nach Mayring: deduktiv oder induktive Bildung der Kategorien → Häufig Mischform
−Genaue Beschreibung der Haupt- und Unterkategorien (inkl. Kodierregeln und Ankerbeispiele)
−Nicht mehr als 7 +- 2 Haupt- bzw. Unterkategorien
−Durchkategorisieren des Materials
−Mindestens 1 unabhängigeR RaterIn erhält Kategorienbeschreibung und kategorisiert Material ebenfalls (wenn nicht verfügbar, neuerliches Selbst-Rating)
−Kappa-Koeffizient (>0.7??) sonst Überarbeitung des Kategorienschemas samt Beschreibung und
−neuerlicher Durchlauf
40
Kartenlink
0
40.Was sind Ratingskalen? Welche Möglichkeiten kennen Sie?
−Unterschiedlich etikettierte abgestufte Darstellung einer Dimension → Urteiler*innen sollen ihre Abschätzung über Grad der Merkmalsausprägung angeben, indem sie den Punkt auf der Skala markieren, der dem Grad der Ausprägung am ehesten entspricht
−Anwendung bei viele Fragebögen, Bewertungen Arbeitsplätzen etc., Befragungen
−Abschnitte des Merkmalskontinuums sollen durch Zahlen, verbale Beschreibungen, Symbole etc. markiert und als gleich groß bewertet werden → Stufen der Skala = gleich groß (!) Siehe Kritik
−Möglichkeiten: Bipolare vs. unipolare Ratingskalen (bei zweiterem ist Gegensatz unklar), symbolische Marken, verbale Marken, numerische Marken, graphische Ratings, Anchored Scales (durch verschiedene Beispielsätze verankert)
41
Kartenlink
0
41.Wieviele Kategorien soll eine Ratingskala aufweisen?
−Geradzahlige Stufen → erzwingen Tendenz; Problem = Auslassungen; was ist bei Unsicherheit?
−Ungeradzahlige Stufen → Tendenz zur Mitte
−Sehr viele Stufen (z.B. 0-100) → werden überwiegen Stufen gewählt, die durch 5 oder 10 teilbar sind
−Die Literatur empfiehlt eher die Verwendung von geradzahligen Stufen, wenn man mit Verfälschungen der Urteile durch eine übermäßige zentrale Tendenz der Urteiler*innen rechnet
−In der Praxis häufig 5-stufige Skalen präferiert
42
Kartenlink
0
42.Was ist bei schriftlichen Befragungen zu beachten?
−Da schriftliche Befragungen v.a. für homogene Gruppen gedacht sind erfordern heterogene Gruppen eine Segmentierung nach homogenen Gruppen (separate Fragen, andere Einleitungstexte etc.)
−Beachten, was der Fragebogen bezwecken will:
→ Ist er ein neues Testinstrument?
→ Soll er Einstellungen messen?
→ Soll er konkrete Verhaltensweisen erfassen?
→ Soll er eine Bevölkerungsgruppe beschreiben?
→ Soll er allg. Zustände/Sachverhalte beschreiben?
→ Soll etwas evaluiert werden?
43
Kartenlink
0
43.Nennen Sie 5 der „Gebote“ nach Porst.
−Du sollst lange und komplexe Fragen vermeiden
−Du sollst hypothetische Fragen vermeiden
−Du sollst unklare Begriffe definieren
−Du sollst doppelte Stimuli und Verneinungen vermeiden
−Du sollst Fragen mit eindeutigem zeitlichem Bezug verwenden


−Du sollst Unterstellungen und suggestive Fragen vermeiden
−Du sollst einfache unzweideutige Begriffe verwenden, die von allen Befragten in gleicher Weise verstanden werden

44
Kartenlink
0
44.V: Sie möchten das Ausmaß an „Ausländerfeindlichkeit“ erheben. Skizzieren Sie dazu 1) eine Beobachtung 2) eine Untersuchung mittels Ratingskalen.
−Beobachtung: Systematisierte Beobachtung zur Erfassung der Ausländerfeindlichkeit → teilnehmende verdeckte Beobachtung: Ich trete einer Facebook-Gruppe bei, die in der Vergangenheit bereits durch diskriminierendes Gedankengut aufgefallen ist und untersuche dabei verdeckt deren potentiell ausländerfeindliche Strukturen → Hierbei ist die Systematik der Vorgehensweise von höchster Wichtigkeit, d.h. es gilt zu definieren, was genau der Beobachtungsgegenstand ist und von wem dieser beobachtet wird, bzw. in welchem zeitlichen und örtlichen Rahmen beobachtet wird, was dabei (un)wesentlich ist,  was gedeutet werden darf und wenn ja wie und wie letztlich erfasst werden soll  (Protokoll?).
−Untersuchung mittels Ratingskala → Auswahl eines Statements zu welchem mittels einer verbalen Skala zugestimmt bzw. welches abgelehnt werden soll (z.B. „Ich kann mir vorstellen mit einer Person mit Migrationshintergrund befreundet zu sein.“); Auswahl von Statements bei Einstellungsmessungen erscheint insofern sinnvoller, als sie Suggestivfragen vermeiden, die das Antwortverhalten eher in eine bestimmte Tendenz hin verschieben → geradzahlige Stufen verwendet, damit Person Tendenz abgeben muss!
45
Kartenlink
0
45.V: Kritisieren Sie (ausführlich) die folgende Frage eines Erhebungsinstruments:  Ich habe keine Vorurteile oder negative Gedanken gegenüber Menschen aus anderen Kulturkreisen aufgrund von religiösen oder kulturell bedingten Gründen. Stimme zu □ Stimme nicht zu □. Skizzieren Sie, wie man es besser machen kann. (Hinweis: mit einer einzigen Frage werden Sie vielleicht nicht ganz ;-) auskommen.)
−Vorurteile und negative Gedanken = unabhängig voneinander; es werden hier zwei Konstrukte in einer Frage gemessen → Was soll angekreuzt werden, wenn das eine zutrifft, das andere jedoch nicht?
−Gründe → auch zu viele in einer Frage angegeben → religiös oder kulturell; so kann hinterher nicht entschieden werden, welcher der beiden Gründe nun ursächlich war
−Es kann neben der Religions- und Kulturverschiedenheit auch noch andere Ursachen für die Entwicklung von Vorurteilen oder negativen Gedanken gegenüber Personen mit Migrationshintergrund geben → das wird bei der o.g. Fragestellung jedoch nicht erfasst
−Frage, dafür dass sie als „Statement“ formuliert ist zusätzlich auch noch zu lang und dadurch ggf. unverständlich → zu viele Teilaspekte enthalten
−Dopplung „aufgrund (...) von Gründen“ formell falsch
−Kann zu Verwirrung führen wenn Person nicht zustimmt → Doppelte Verneinung
−Alternativ: 4-stufiges Antwortformat, wirkt immer noch Tendenz zur Mitte entgegen, was bei Einstellungsfragen sicherlich zu erwarten ist, erzwingt aber eine weniger harte Entscheidung, und erlaubt eine höhere Abstufung des Vorhandenseins von Vorurteilen bzw. negativen Gedanken; Aufteilung der Frage auf zwei separate Fragen (eine bezüglich des Vorhandenseins von Vorurteilen & eine zu negativen Gedanken); generell → Gefahr des sozial erwünschten Antwortens bei beiden gestellten Statements sehr (!) hoch, vllt. Alternativ nicht direkt das Vorhandensein von Vorurteilen/negative Gedanken abfragen, sondern indirekt über Statements, die vorurteilsbehaftet sind & denen zugestimmt wird bzw. die abgelehnt werden sollen (z.B. „Die in Deutschland lebenden Ausländer*innen sind eine Belastung für das soziale Netz.“; „Sie sind eine Bereicherung für die Kultur in Deutschland.) → Vorab jedoch faktorenanalytische Prüfung der Items notwendig (erfassen die Items wirklich das Konstrukt Vorurteil bzw. negative Einstellung?)
46
Kartenlink
0
46.Was ist Testverfälschung? Wodurch entsteht sie? Was bzw. wieviel kann man dagegen tun?
−= Testergebnisse i.d.R. nicht belanglos (Intelligenztests, Aufnahmeverfahren etc.), Personen versuchen daher, positive Aspekte der Persönlichkeit überzubetonen und negative unterzubewerten, Antworttendenzen (Ja bzw. Nein Sage Tendenz und Akquieszenz bei Unsicherheit)
−Entsteht durch: Simulation, Dissimulation (gezielt niedrige Ergebnisse erzielen), Selbstdarstellung, soziale Erwünschtheit (Angst vor soz. Verurteilung), Antworttendenzen
−Verhinderung: Ausbalancieren von Antworten, Kontrollskalen, Konkretes Auffordern zu korrektem Testverhalten (Instruktion), unmatched count technik, random response Technik, „objektive“ Tests
47
Kartenlink
0
47.Erklären Sie die random-response-Technik.
Tendenz zu verfälschten Antworten reduziert sich, wenn Person sicher ist, dass sich ihr „wahres“ Antwortverhalten nicht rekonstruieren lässt

Bsp.: P. wird gebeten vor jedem Item zu Würfen, bei 1-4 ehrlich antworten, bei 5-6 absichtlich lügen; auf diese Weise sind p= 2/3 der Antworten ehrlich bzw. richtig (Achtung Verhältnis funktioniert nicht bei p=1/2)

Formel: %Ja-Antwort = Anteil ehrliche Antworten× p + Anteil gezielte Lügen ×(1-p)

48
Kartenlink
0
48.V: Ein mittels random-response-Technik vorgegebener Fragebogen gibt die Instruktion zur Falschantwort, wenn man in einem Monat von Dezember bis Februar geboren ist (Annahme: Wahrscheinlichkeit ¼). Wenn 40% der Befragten eine Frage zustimmend beantworten, für wie groß schätzen Sie den tatsächlichen Anteil in der Population?
%Ja =  3/4  × p + 1/4 ×(1-p)
0.4 = ¾p+1/4*(1-p)
49
Kartenlink
0
49.Erklären Sie die unmatched count-Technik.
−Befragten werden zufällig in zwei Gruppen eingeteilt; Eine Gruppe erhält x harmlose Items, die andere harmlose + ein sensitives Item→ Beide werden gefragt, wieviele sie mit „Ja“ beantworten würden → Aus Differenz lässt sich erschließen, wieviele auf das sesitive Item mit „ja“ geantwortet haben
50
Kartenlink
0
50.Was ist Kausalität, und warum ist sie so schwierig nachzuweisen?
−Klarer Zusammenhang von Ursache und Wirkung (Kausalität)
−Wirkung = Unterschied zwischen Vorliegen der Ursache und dem, was gewesen wäre, wenn Ursache nicht vorgelegen hätte (kontrafaktische Überlegung)
−Kausalbeziehung eig. immer kontextabhängig, oftmals jedoch nicht alles über besagten Kontext bekannt
−Problem: Kontrafakte naturgemäß nicht beobachtbar, weiß also nicht was gewesen wäre wenn → durch Experiment muss dies mittels zwei Gruppen hergestellt werden (eine Gruppe mit vs. eine ohne Bedingung bzw. Effekt)
51
Kartenlink
0
51.Was ist Kausalität bei John Stuart Mill, und warum schneidet bezüglich seiner Kriterien ein Experiment besser ab als eine Korrelation aus einer Feldstudie?
Eine Kausalbeziehung existiert wenn:
−Die Ursache dem Effekt vorangeht
−Die Ursache zum Effekt in Beziehung steht
−Es keine andere plausible Erklärung für den Effekt gibt als die Ursache.

−Im Experiment wird zuerst die Ursache manipuliert, dann folgt der Effekt; wir können prüfen ob eine Beziehung zwischen Effekt und Ursache besteht; wir können Alternativerklärungen ausschließen
Korrelation aus einer Feldstudie:

−Correlation does not prove causation, weil:
−i.a. nicht klar ist welche Variable welcher vorangeht
−Die beiden Variablen nicht notwendig in Beziehung miteinander stehen (sog. „Scheinkorrelationen“)
−Es im allgemeinen alternative Erklärungen für korrelative Zusammenhänge gibt – Moderatorvariablen!
52
Kartenlink
0
53.V: Zwei zeitlich gleich angesetzte parallele Gruppen einer Lehrveranstaltung haben völlig verschiedene Durchschnittsleistungen auf die Abschlussprüfung. Können Sie das auf die/den LehrveranstaltungsleiterIn zurückführen? Gehen Sie die Millschen Kriterien für Kausalität durch, und erstellen Sie eine Liste an möglichen alternativen Erklärungen. Sind diese alternativen Erklärungen plausibel?
−Die Ursache geht dem Effekt voraus → In diesem Fall schon zutreffend, da die Ursache (Vorbereitung auf Prüfung durch Kompetenz der LV Leitung A vs. LV Leitung 2B dem Effekt (Durchschnittsleistung in der Prüfung) vorausgeht
−Die Ursache steht zum Effekt in Beziehung → ebenfalls zutreffend, da die zu erbringende Leistung aus dem zuvor erlernten Wissen/Kompetenz in der LV resultiert; bzw. sich die Inhalte der Abschlussprüfung auf die Inhalte der LV beziehen
−Es gibt keine andere plausible Erklärung für den Effekt als die Ursache → Dieses Millsche Kriterium kann nicht zweifelsfrei bestätigt werden, da durchaus andere plausible Erklärungen für die unterschiedlichen Leistungen denkbar sind → z.B. unterschiedliche Ausgangsbedingungen (prä-experimentelle Unterschiede hinsichtlich des durchschnittlichen Fähigkeitsniveaus), aber auch Unterschiede in der Umsetzung der Leistungsüberprüfung (wurde bei beiden Gruppen exakt der gleiche zeitliche Rahmen eingehalten? Die gleichen Instruktionen vorgegeben? Wurden Verständnisfragen beantwortet oder nicht?) bzw. bei der Auswertung
−Durchaus wahrscheinlich, dass die LV Leitung einen hohen Einfluss auf die Prüfungsleistung besitzt, andere beeinflussende Faktoren (Alternativerklärungen) können jedoch nicht zweifelsfrei ausgeschlossen werden
53
Kartenlink
0
54.V: In zwei verschiedenen Schulen wird nach zwei verschiedenen Lehrplänen unterrichtet, um festzustellen, welcher besser ist. Um welches Versuchsdesign handelt es sich? Welche alternativen Erklärungen für allfällig beobachtete Effekte kann es geben?
−Design: Quasiexperiment
−Mögliche prä-experimentelle Unterschiede:
Alle möglichen Unterschiede zwischen den Schulen, z.B. Vertrautheit mit dem Lehrplan, Klassengröße, Ausfall an Stunden im Durchschnitt, Qualität des Lehrpersonal, Vorhandensein von Zusatzangeboten der Schule, die sich ggf. zusätzl. positiv auf die Leistung/Wohlbefinden der Schüler*innen auswirken können (AG’s, Hausaufgabenbetreuung, Schulpsycholog*innen etc.)
Alle möglichen Unterschiede zwischen den Schülern, z.B. Kompetenzunterschiede
Unterschiede in der Umsetzung, z.B. unterrichtende Person (Lehr- und psychosoziale Kompetenz).
54
Kartenlink
0
55.Fassen Sie die wissenschaftskritischen Überlegungen aus der Vorlesung zusammen, und untermauern Sie sie durch zwei selbst gewählte Beispiele.
−In der Realität: oftmals kein streng vollzogener Prozess der Verifikation/Falsifikation im Popperschen Sinne
−Forschungspraxis, bzw. traditionelle Wissenschaft als gesellschaftliches Konstrukt → nur vermeidlich objektiv, mitbestimmt von kulturellen Vorstellungen, aber auch kulturellem, politischen oder ökonomischen Druck sowie unterschiedlichen Interessensvertretungen (oftmals lässt sich daher Objektivität und Neutralität des Forschungsprozesses anzweifeln)
−Wichtige Informationen werden oftmals nicht zur Verfügung gestellt,
−Mystifizierung von Studienergebnissen und fehlende Replikation
−Scientific Community gibt vor, wie geforscht werden soll, welche Themen/Ergebnisse von höherer Bedeutung sind als andere → selektiven aufgreifen von Ergebnissen, kein Platz für ungewöhnliche/alternative Ansätze, selektives Finanzieren durch diverse Einrichtungen erhöht Druck
−Druck zu habilitieren, publizieren, im mainstream zu bleiben → soziales Prestige davon abhängig, sowie, strategische Zielsetzungen (mögl. Kooperationen), monetäre Vergütungen auch bedeutend für die Auswahl des Forschungsgebiets, Systemrechtfertigung
−Jedoch auch eine Reihe von kritischen Theorien vorhanden: u.a. schon seit dem 17. Jhdt. Ablehnung einer autoritätshörigen Wissenschaft (auch an Wissenschaft muss man „glauben“) → Betrug, Datenfälschung, voreilige Schlüsse etc.
−Bsp. 1: Ein Forscherteam konnte mittels der durchgeführten Untersuchung die zuvor aufgestellten Hypothesen nicht bestätigen, jedoch andere auffällige Zusammenhänge feststellen, die sie sich zunächst nicht zweifelsfrei erklären können. Im Verlauf der weiteren Datenauswertung versuchen sie Alternativerklärungen (post-hoc) für die vorgefundenen Zusammenhänge aufzustellen, damit die Ergebnisse ihrer Studie doch noch plausibel erscheinen und sich veröffentlichen lassen (Capitalizing on chance).
−Bsp. 2: Ein Autohersteller möchte den ökologischen Vorteil von Hybrid-Automobilen gegenüber herkömmlichen, Benzin betriebenen Automobilen nachweisen und engagiert bzw. finanziert dazu ein Forscherteam, das im weiteren Verlauf eine großangelegte Studie durchführt. Objektivität und Neutralität sind anzweifelbar, da ein klares Interesse hinter der durchgeführten Studie steht: Systemrechtfertigung.
55
Kartenlink
0
56.Was ist Konstruktivismus? Welche Abstufungen kennen Sie?
−Radikalste Form: Es gibt keine vom Menschen losgelöste Wirklichkeit, alles ist nur eine Vorstellung, ein Konstrukt.
−Weichere Form: Unsere Vorstellung von der Welt ist nur ein Konstrukt, es gibt prinzipiell jedoch schon so etwas wie eine objektive Welt.
−Radikale Wissenschaftskritik: wissenschaftliche Erkenntnisse folgen ausschließlich außerwissenschaftlichen Prozessen.
−weniger radikal: wissenschaftliche Erkenntnisse/Ergebnisse sind von der wirklichen Welt und außerwissenschaftlichen Prozessen beeinflusst.
56
Kartenlink
0
57.Was beinhaltet das UTOS-Modell?
Bezieht sich auf die kausale Generalisierbarkeit von Ergebnissen; 4 Aspekte relevant:
−UNITS (bzw. Versuchpersonen-repräsentativ?)
−TREATMENTS (bzw. konkret gesetzte Maßnahmen- äquivalente Treatments?)
−OBSERVATIONS (Verallgemeinerbarkeit d. Messung)
−SETTINGS (Generalisierbarkeit d. Settings)

Zusätzlich: Konstruktvalidität und externe Validität → Generalisierbarkeit über UTOS
57
Kartenlink
0
58.V: Um den Effekt von home jobbing auf die Arbeitsmotivation (mittels Fragebogen erhoben) festzustellen, werden an einigen Standorten eines Großbetriebs home office-Möglichkeiten gezielt forciert. Was wäre nach dem UTOS-Modell hinsichtlich der Generalisierbarkeit der Resultate konkret angewandt auf das Beispiel zu beachten?
UNITS -> Spiegelt die gewählte Stichprobe die Zielpopulation adäquat wieder? Ist eine randomisierte Zuteilung möglich?

TREATMENTS -> äquivalente Treatment Bedingungen führen zu ähnlichen Ergebnissen? Setzt voraus, dass Treatment Bedingung (home jobbing) repräsentativ ist (Umsetzbarkeit?) -> Hier eher  Quasi-Experimentelle Bed. gegeben -> keine Kausalaussagen möglich

OBSERVATIONS -> Prä- und Postmessungen der Arbeitszufriedenheit; mögliche Störvariablen, die mit Arbeitszufriedenheit assoziiert sind? Kann die erhöhte Arbeitsmotivation zweifelsfrei auf das home jobbig zurückgeführt werden?

SETTINGS -> Generalisierbarkeit auf andere Unternehmen zweifelhaft; Anscheinend werden nur Standorte eines Großbetriebes forciert (Zielpopulation)
58
Kartenlink
0
59.V: Worin besteht konkret im Beispiel Homejobbing - AZ (Großbetrieb) externe bzw. interne Validität?
−Interne Validität: Trifft eine Aussage darüber, inwieweit das gemessen wird, was gemessen werden soll
−Veränderung der abhängigen Variablen tatsächlich vom Stimulus und nicht durch das Auftreten von Störvariablen verursacht? Eine möglichst hohe interne Validität durch maximale Kontrolle , dann aber künstliche Situation;
−Durch Randomisierung approximativ gewährleistet und Gruppenunterschiede relativ kausal eindeutig auf Untersuchungsbedingungen bezogen werden, schlecht wäre wenn allgemeine Veränderungen im Unternehmen/ Umfeld (Störvariable!)
−Externe Validität: Externale Validität: Inwieweit sind Ergebnisse auf die Realität übertragbar? Übertragbarkeit nur auf eigentliche Zielpopulation – hier der Großbetrieb.

59
Kartenlink
0
60.Welche möglichen ethischen Probleme stellen sich bei der Durchführung experimenteller Designs?
−Nicht-Behandlung der Kontroll-Gruppe
−Verletzung ethischer Kodizes: Respekt, Wohlergehen der Teilnehmer*innen, gerechte Aufteilung, Informed Consent
−Randomisierung → Fälle besitzen möglicherweise eine verschieden hohe Dringlichkeit; Missverständnisse beim Einverständnis
60
Kartenlink
0
61.Erklären Sie externe und interne Validität.
−Externe Validität (auch: ökologische Validität): ist gegeben wenn sich die Resultate auf die Grundgesamtheit verallgemeinern lassen, für die die Studie konzipiert wurde, und über das konkrete Setting der Studie hinaus auf andere Designs, Instrumente, Orte, Zeiten und Situationen übertragen lassen, also allgemeingültig, verallgemeinerungsfähig sind.
−Interne Validität: liegt vor, wenn die Veränderung der abhängigen Variable eindeutig auf die Variation der unabhängigen Variable zurückgeführt werden kann (keine Alternativerklärung). Um dies zu gewährleisten, müssen Störvariablen kontrolliert bzw. durch verschiedene Methoden wie Elimination, Konstanthaltung und Parallelisierung ausgeschaltet werden. Damit die Effekte nicht auf Merkmale der Probanden zurückgeführt werden können, müssen diese zufällig den Versuchsbedingungen zugeteilt werden.
61
Kartenlink
0
62.Welche Designs ohne Kontrollgruppe kennen Sie (mit jeweils kurzer Erklärung)?
−Ein-Gruppen-Post-Test → Eine Gruppe; nur eine Testung nach Behandlung; tlw. sinnvoll, wenn Effekte der Behandlung sehr klar feststellbar sind (besser: multiple post-tests)

−Ein-Gruppen-Pretest-Posttest → Problem alternativer Erklärungen bleibt dennoch bestehen (obwohl Pretest durchgeführt wird); z.B. durch Einfluss der Testung an sich, parallele zeitl. Entwicklungen etc.; hilfreich: mehrere Pre-Tests durchführen oder nicht-äquivalente andere AV’s hinzufügen und vergleichen

−Removed Treatment → Behandlung zwischenzeitlich aussetzen i.d.R. mit 4 Messzeitpunkten, wobei die Behandlung nach dem 3. ZP abgesetzt wird; erwartet wird eine rasch abgesunkene Wirkung bei ZP 4 bzw. Steigerung bei ZP 2. → je spezifischer das Effektmuster, desto weniger plausibel sind Alternativerklärungen

−Repeated Treatment → Behandlung wird zwischenzeitlich ausgesetzt und anschließend wieder aufgenommen; noch spezifischere Vorhersage möglich als bei removed treatment; Dennoch Prüfung, ob andere Ursachen demselben zeitlichen Muster folgen (!)
62
Kartenlink
0
63. Der Ein-Gruppen-Post-Test. Was kann er, was sind die Probleme? Wie lässt sich das Design aufbessern? Analog: der Ein-Gruppen-Prätest-Posttest, der Post-Test mit zwei verschiedenen Gruppen, Versuchsplan mit Prä-Post-Test und Kontrollgruppe.
−Ein-Gruppen-Post-Test → Eine Gruppe; nur eine Testung nach Behandlung; schwierig, da Alternativerklärungen kaum auszuschließen sind, tlw. jedoch sinnvoll, wenn Effekte der Behandlung sehr klar feststellbar sind (z.B. Effekt einer Droge); Verbesserung: multiple post-tests helfen alternative Erklärungen zu minimieren.
−Ein-Gruppen-Pretest-Posttest → Testung der Gruppe vor Behandlung und im Anschluss erneute Testung nach Behandlung; Wirkung der Behandlung kann etwas besser nachgewiesen werden, jedoch: Problem alternativer Erklärungen bleibt dennoch bestehen (obwohl Pretest durchgeführt wird); z.B. durch Einfluss der Testung an sich, parallele zeitl. Entwicklungen von anderen Ursachen etc.; hilfreich: mehrere Pre-Tests durchführen oder nicht-äquivalente andere AV’s hinzufügen und vergleichen

−Post-Test mit zwei verschiedenen Gruppen → Eine Gruppe mit vs. eine Gruppe ohne Behandlung werden verglichen; sinnvoll wenn durch Pretest-Methodik Störungen zu erwarten sind; Problematik: ohne Randomisierung oftmals schwer zwischen Selektion und tatsächlichem Effekt der Behandlung zu unterscheiden + Alternativerklärungen möglich; Verbesserung: Solomon 4 group design; unabh. Pretest Gruppe

−Versuchsplan mit Prä-Post-Test und Kontrollgruppe → Standard der Quasi-experimentellen Designs; Effekte lassen sich im vgl. zu o.g. Methoden noch spezifischer auf die Behandlungsmethode zurückführen, da mit Kontrollgruppe (ohne Behandlung) verglichen werden kann; Teilnehmerausfälle können besser kontrolliert werden; Prä-Test Vergleich: Bedeutet dennoch nicht, dass es keine prä-experimentellen Unterschiede zwischen den Teilnehmer*innen gibt, da nicht erhobene Störeinflüsse nicht berücksichtig werden können; ethische Problematik der Nicht-Behandlung (Verwehrung einer Behandlung nicht immer vertretbar).
63
Kartenlink
0
64.Formulieren Sie jeweils ein eigenes Beispiel für Ein-Gruppen-Post-Test bzw. Ein-Gruppen-Prätest-Posttest und Post-Test mit zwei verschiedenen Gruppen, Versuchsplan mit Prä-Post-Test und Kontrollgruppe.
−Bsp.: Ein-Gruppen-Post-Test: Die Auswirkungen (Effekte) von kognitiver Verhaltenstherapie auf den Verlauf einer postpartalen Depression bei jungen Müttern soll untersucht werden.
−Bsp.: Ein-Gruppen-Prätest-Posttest: Ein Forscherteam möchte die Wirkung eines neuen Migränemittels erforschen. Hierzu werden vor Beginn der Behandlung mittels unterschiedlicher Tests u.a. die aktuelle Schmerzintensivität, Häufigkeit und Dauer der Attacken bzw. auch die subjektive Belastung der Proband*innen durch die Migräneattacken erfasst. Im Anschluss an die Behandlung mit dem neuen Medikament werden den Poband*innen die o.g. Tests erneut vorgelegt und abgeglichen.
−Bsp.: Post-Test mit zwei verschiedenen Gruppen: Vergleich von Verhaltensauffälligkeiten bei Krippenkindern vs. zu Hause Erzogenen; Prätest würde sehr wahrscheinlich weiteres Verhalten der Vpn und damit die Postmessung beeinflussen, daher Auslassung.
−Bsp.: Versuchsplan mit Prä-Post-Test und Kontrollgruppe: Effektivität eines Förderkurses für Schüler*innen soll geprüft werden → Alle eingeladenen Personen werden VOR der Veranstaltung (= Pretest) hinsichtlich ihrer Lese-, Rechtschreibungs- und Rechenkompetenz geprüft  und dann noch einmal NACH der Veranstaltung (= Posttest). Eine Kontrollgruppe aus Schüler*innen im gleichen Alter wird ebenfalls vor und nach der Veranstaltung getestet, besucht diese jedoch nicht.
64
Kartenlink
0
65.V: Angenommen eine Studie möchte feststellen, ob entspannende Musik während des Schlafs aggressive Tendenzen vermindert. Zu diesem Zweck wird 60 Jugendlichen zu Zeitpunkt 1 ein Fragebogen vorgelegt, welcher die Zustimmung zu aggressiven Vorurteilen und aggressiven Bestrafungen von Fehlverhalten misst. Der Fragebogen wird nach 3 Wochen zu Zeitpunkt 2 wiederholt. Dazwischen wird in der Nacht beruhigende Musik aufgelegt, eine Auswahl langsamer Sätze aus Vivaldi-Konzerten. Am Ende werden die Unterschiede in den Fragebogenscores zwischen Zeitpunkt 1 und Zeitpunkt 2 ausgewertet.
Um welches Design handelt es sich? Was sind die Stärken, was die Schwächen dieses Designs? Welche möglichen Alternativerklärungen für allfällige Effekte gibt es, und wie bedrohlich sind sie für die Aussagekraft der Resultate? Welche Verbesserungsmöglichkeiten fallen Ihnen ein (denken Sie insbesondere an die in der Vorlesung genannten Punkte). Benutzen Sie zum Bearbeiten die Antwortmaske 1 am Ende des Dokuments.
−Ein-Gruppen-Prätest-Posttest
−Stärken → Bei hoher zu erwartender Effektivität der Behandlungsmethode wird keiner Gruppe der Zugang dazu verwehrt (was bei einer Kontrollgruppe der Fall wäre)
−Alternativerklärungen sind jedoch sehr bedrohlich für die Aussagekraft der Untersuchung, da Vielzahl vorhanden & durch Fehlen einer Kontrollgruppe kaum auszuschließen → Das Problem dieses Designs liegt darin, dass mögliche Alternativerklärung alleine durch die Prätest-Posttest-Messung nicht eliminiert werden. Das bedeutet: Sollte sich ein Effekt zeigen, kann er auch daraus resultieren, dass die Jugendlichen auch ohne die Musikintervention ihre aggressiven Tendenzen verringert haben (z.B. nicht durch die Musik, sondern durch die dadurch entstandene erhöhte Strukturierung des abendlichen Zubettgehens, oder etwa allein durch einen vermehrten Fokus auf ihre aggressiven Tendenzen angeregt durch den einleitenden Fragebogen; auch muss hinterfragt werden, ob die Angabe darüber (im Posttest),  dass die aggressiven Tendenzen nachgelassen hätten auch tatsächlich mit der Realität übereinstimmen (Stichwort: sozial erwünschtes Antworten; die Teilnehmer*innen selbst erhoffen sich ggf. auch einen Effekt und beeinflussen diesen unbewusst).
−Verbesserung: Kontrollgruppe mit Jugendlichen, die keine beruhigende Musik erhalten oder: mehrere Posttests durchführen → Musikintervention durchführen und im Anschluss mit ausreichendem zeitlichen Abstand zwei Posttest durchführen (einmal direkt nach der Intervention und dann beispielsweise zwei Monate später)
- Oder: Hinzufügen nicht-äquivalenter AV -> Fernsehverhalten
65
Kartenlink
0
67.V: Sie erheben den Effekt von Trauma-Therapie anhand von Betroffenen, indem Sie das Befinden unmittelbar nach dem Trauma bzw. zwei Monate später erfassen. Um welches Design handelt es sich? Welche Nachteile birgt das Design in sich? (Antwortmaske 1 am Ende des Dokuments)
-Ein-Gruppen-Prätest-Posttest Design. Das Problem dieses Designs liegt darin, dass mögliche Alternativerklärung alleine durch die Prätest-Posttest-Messung nicht eliminiert werden

-mehrere Pretests, um zeitl. Trend ohne Behandlung abzuschätzen
-Kontrollgruppe
-Hinzufügen nicht äquivalenter AV, die sich nicht verändern sollte
66
Kartenlink
0
73.Skizzieren Sie die Schritte, die zu einer schlüssigen Bestätigung einer Theorie aus einer Beobachtung führen könnten. Welche Schwierigkeiten stellen sich dabei, und welche Begriffe sind dabei entscheidend? Erklären Sie.
Beobachtung -> interpretiert als -> bestimmtest Phänomen (Validität d. Messung/Operationalisierung)-> beinhaltet -> Effekt (Signifikanz/Macht/Fehler 1.&2. Art)-> als Wirkung einer -> Ursache (interne Validität) -> erklärt durch -> spezifische Theorie (bez. auf Beobachtung; Operationalisierung d. Theorie) -> erklärt durch -> allgemeine Theorie (Generalisierbarkeit/ externe Validität)
67
Kartenlink
0
75.Was hat Signifikanztesten mit der Elimination alternativer Erklärungen zu tun?
−Signifikanzen eliminieren EINE Alternativerklärung, nämlich die des Zufalls. Alle anderen bleiben bestehen. Mit einem Signifikanztest wird eine H0 verworfen, die besagt, dass es keinen Effekt gibt. Damit ist aber noch nicht bestätigt, dass der Effekt auf eine bestimmte Ursache zurückgeht bzw. durch eine bestimmte Theorie erklärt werden kann. Wenn wir z.B. feststellen, dass eine Person das Wetter signifikant voraussagen kann, wissen wir nicht, ob das daran liegt, dass sie hellseherische Kräfte oder sehr fundierte meteorologische Fähigkeiten hat. Das einzige, was wir wissen, ist, dass sie nicht geraten hat.
−Daher sollte statistisches Hypothesentesten, falls möglich, so angelegt sein, dass es die Zufallserklärung unplausibel macht, aber auch alle anderen Alternativerklärungen bis auf die interessierende!
68
Kartenlink
0
76.Was sind Fall-Kontrollstudien? Was sind die Probleme dieses Designs?
−Eine Fall-Kontroll-Studie ist eine nicht-experimentelle, eine bestehende Situation beobachtende, retrospektive Studie. Dabei werden die Gruppe mit einem interessierenden Ergebnis (Fälle z.B. Patienten mit Lungenkrebs) mit einer ähnlichen Stichprobe ohne dieses Ergebnis (Kontrollgruppe z.B. Patienten ohne Lungenkrebs) verglichen. Es wird untersucht, ob die Fallgruppe oder die Kontrollgruppe einer bestimmten Exposition ausgesetzt waren, die von Interesse ist. Z.B. Brustkrebs im Zusammenhang mit der Nutzung von aluminiumhaltigen Deos (Risikofaktorenabklärung).
−Fall-Kontroll-Studien wollen von einem Effekt (Wirkung) auf dessen Ursache schließen; im Gegensatz zu vielen anderen Forschungsdesigns, bei denen man durch eine Ursache (Behandlung) eine Wirkung (Effekt) nachweisen möchte. Fall-Kontroll-Studien werden vor allem bei seltenen Erkrankungen und zunehmend zur Aufklärung von Risikofaktoren verwendet.

−Probleme des Designs: Die angenommenen Ursachen können mit anderen Variablen konfundiert sein.  Expositionen, denen man ausgesetzt war, könnten falsch erinnert werden (recall bias). Es muss klar vorher definiert werden, was zum Symptom zählt und was nicht. Diagnosen können sich mit der Zeit ändern.  Die angenommene Ursache könnte zu erhöhter Diagnosewahrscheinlichkeit führen. Es sind Ausfälle von Personen zu berücksichtigen (insbesondere vor Start der Untersuchung.), selektive Wahrnehmung, Stichprobengröße beachten
69
Kartenlink
0
78.Was versteht man unter Einzelfallanalyse?
−Die Einzelfallanalyse ist ein Ansatz der qualitativen Forschung. Dabei liegt der Schwerpunkt auf individuellen Fallbetrachtungen und ihren individuellen Kombination von Merkmalsausprägungen

−Einzelfallanalyse in der Statistik = Betrachtung von Zeitreihen
70
Kartenlink
0
79.Was muss man bei der Auswertung einer zeitlichen Abfolge beachten?
−Zu berücksichtigen sind Art des Effekts, Dauer und Verzögerung, sowie externe Einflüsse. Zu beachten ist außerdem, dass die statistische Auswertung komplizierter ist als beim Gruppenvergleich, weil die Werte oft autokorreliert sind, und dass die vielverwendeten ARIMA-Modelle lange Messwertreihen (>100) brauchen.
71
Kartenlink
0
80.Das Validitätsproblem, wenn man Effekte auf eine Zeitreihe untersucht. Wie kann man damit umgehen?
−Hauptproblem: zeitgleiche Geschehnisse, dh. Einflüsse anderer Variablen als der zu untersuchende Effekt (Bei Gesetzesänderung → was passiert noch alles zeitgleich?)
−Weitere Problematik: Brüche in der Zeitreihe → dh. Erfassung ändert sich, Umstellung der Erhebung, Definition oder Bewusstsein ändert sich (z.B. Entwicklung häuslicher Gewalt über die Zeit → Vermutung mehr häusliche Gewalt; Alternativerklärungen: mehr gemeldete Vorfälle als zuvor)
Population oder Selektion ändert sich
−Verhinderung: Non-äquivalente no-treatment group, non äquivalente abhängige Variable, mehrere Pretests/Posttests, Treatment zwischenzeitlich entfernen/wiederholt setzen bzw. wegnehmen, Treatment bei Vergleichsgruppe später einsetzen
72
Kartenlink
0
81.Was muss man tun, um kausale Effekte innerhalb einer Zeitreihe zu untersuchen? Welche Möglichkeiten gibt es, um das zu erreichen?
−Man kann Zeitreihen z.B. mit Trendbereinigung in ARIMA-Modellen stationär machen.

Verzerrungen der Parameterschätzungen von kausalen Effekten können minimiert werden, zum einen durch Randomisierung, durch non-responder-Analysen sowie durch partielle Korrelationen mit sog. instrumental variables.
73
Kartenlink
0
82.Was ist Stationarität einer Zeitreihe? Wofür ist sie wichtig?
−Stationarität: Nahezu alle statistischen Verfahren verlangen stationäre, also sich nicht ändernde Randbedingungen; im Falle von Zeitreihen bedeutet Stationarität, dass die zugrundegelegte Verteilungsfunktion der Messwerte zeitlich konstant ist.
−Stationarität einer Zeitreihe liegt vor, wenn bestimmte Verteilungseigenschaften, wie z. B. Mittelwert, Varianz und Autokorrelationen, im Zeitverlauf konstant bleiben.

−Stationarität ist im Zusammenhang mit der Parameterschätzung sehr wichtig.
−Wenn die Stationarität eines Prozesses nicht mehr gegeben ist, da der Erwartungswert beispielsweise von der Zeit t abhängt und nicht mehr konstant ist, resultieren völlig unbrauchbare Werte.
74
Kartenlink
0
84.Warum benötigt man Fallzahlplanungen?
−Die benötigte Stichprobengröße kann vor der Durchführung einer Studie durch Fallzahlplanung ermittelt werden
−Zu kleine Fallzahlen → liefern nicht genügend statistische Information
−Zu große Fallzahlen → unnötiger Mehraufwand (Kosten, Zeit, Belastung für Teilnehmer*innen z.B. bei Nicht-Behandlung in Kontrollgruppe)
−Ethische Forderung; oftmals von Gutachtern gefordert (Standard bei vielen professionellen Untersuchungen)
75
Kartenlink
0
85.Was genau sind Konfidenzintervalle? Wie steigt eine Präzision der Schätzung in Abhängigkeit von der Stichprobengröße?
−Bezeichnet einen Wertebereich, in dem der wahre Populationsparameter mit einer bestimmten Konfidenz (Wahrscheinlichkeit) liegt → meist wird 95%ige Konfidenz/Sicherheit gewählt
−Stellt plausible Werte für unseren Populationsparameter dar, inklusive oberer und unterer Grenze des Parameters → man soll sowohl Punktschätzer, als auch obere und untere Grenze interpretieren
−KIs sind des Weiteren Präzisionsmaße → eine Armlänge des Intervalls gibt uns (mit 95%iger Konfidenz) die obere Grenze des Schätzfehlers an → je enger das KI, desto geringer der Fehler.
−Je größer die Stichprobe und je geringer die Varianz, umso präziser die Schätzung/enger das KI (Je mehr Einzelwerte, desto kleiner der Standardfehler)
−Man unterscheidet zwischen: KI-Berechnung für Wahrscheinlichkeit und KI-Berechnung für den Mittelwert
− (r = Punktschätzer)
- p1,2 = r +- 1.96 * Wurzel ((r(1-r))/n)
76
Kartenlink
0
86.Was ist der Standardfehler?
−Die Standardabweichung des Schätzwerts (Mittelwert der Population)
−Bei einem erwartungstreuen Schätzer ist der Standardfehler ein Maß für die durchschnittliche Abweichung des geschätzten Parameterwertes vom wahren Parameterwert
Allgemein gilt: Je größer der Stichprobenumfang, desto kleiner der Standardfehler; Je kleiner die Varianz, desto kleiner der Standardfehler
77
Kartenlink
0
89.Wie nimmt man eine Fallzahlplanung vor?
−Mit einer Fallzahlplanung soll die Größe der Stichprobe ermittelt werden, dazu braucht man:
−Die Testmacht (Power, 1-β) → sollte mindestens bei 80% liegen
−α-Fehler-Wahrscheinlichkeit = 0,05
−Ein- oder zweiseitige Testung
−Mittelwerte der Gruppen + Standardabweichung der Gruppen → zur Berechnung der Effektstärke D (µ1-µ2)/σ
−Mit G-Power sowie dem Programm „R“ kann eine Fallzahlermittlung durchgeführt werden
78
Kartenlink
0
90.Was ist eine Poweranalyse? Welche Macht wird üblicherweise angestrebt?
−Zur Bestimmung der Fallzahl (Fallzahlanalyse)
−Eine Poweranalyse ist die Berechnung der Macht für ein gegebenes Design und Effektgröße D
−Macht (Power) ist die Wahrscheinlichkeit, die Nullhypothese zu verwerfen, wenn sie falsch ist; hängt u.a. von ab von: n, Größe des Effekts D, gewähltes Signifikanzniveau α
−Als Zielgröße für die Macht wird meist 80% angesetzt. D.h.: wenn die Effektgröße wie vorhergesagt ist, dann beträgt für die errechnete Stichprobengröße die Wahrscheinlichkeit für ein signifikantes Ergebnis 80% (d.h. 1 Ausgang von 5 wird nicht signifikant)
−Meist verwendet man die Analyse, um die benötigte Fallzahl zum Erreichen der gewünschten Macht auszurechnen
79
Kartenlink
0
91.Was sind Effektgrößen? Wofür sind sie nützlich?
−„Effektgröße“ ist auch ein standardisierter Begriff
−Effektgrößen werden verwendet, um Resultate über verschiedene Studien vergleichen zu können (auch wichtig für Metaanalysen) → Allgemein verwendbares Maß: unterschiedliche Skalen und Designs können miteinander verglichen werden
−Effektgrößen
−Beschreiben wie groß der Zusammenhang zwischen den Variablen ist
−Wie groß ein Effekt ist
−Effektgröße D = statistisches Maß, das die relative Größe eines Effekts angibt
−Beispiel: Cohen´s d für den t-Test; Die standardisierte Differenz von Gruppenmittelwerten (µ1-µ2)/σ (σ ist die Wurzel des Durchschnitts der beiden Gruppenvariablen)
80
Kartenlink
0
92.Welche Effektgrößen würden Sie als groß, mittel bzw. klein betrachten, und welche Konsequenz haben entsprechende Erwartungen für die Fallzahlplanung?
−Konventionen darüber, was als groß/mittel/klein bezeichnet werden soll
−Z.B. für Cohens d: 0.2 = klein, 0.5= mittel, 0.8 = groß
−Für Stichprobe (Fallzahlplanung) bedeutet das im Speziellen → je kleiner der Effekt, desto größer muss dich Stichprobe sein um signifikante Effekte nachweisen zu können (d.h. z.B. d=0.2 → n>=310)
81
Kartenlink
0
93.Wie sind Prävalenz und Rücklauf in einer Fallzahlplanung zu berücksichtigen?
−Prävalenz: Prozentsatz der Zielgruppe im Sample (d.h. z.B. Anteil der Personen im Sample, die ein bestimmtes Produkt konsumieren)
−Rücklauf: Anteil (Prozentsatz) an Personen innerhalb der angeschriebenen Zielgruppe, die auch wirklich Daten liefern
−Endgültige Stichprobe: Anzahl kontaktierter Personen x Prävalenzrate x Rücklaufquote
−→ Stichprobe ist daher so zu planen, dass sich am Ende die gewünschte Anzahl an Personen ausgeht (je nach Prävalenz des zu erhebenden Merkmals und erwarteter Rücklaufquote)

Anzahl der zu kontaktierenden Personen = Angestrebtes N/(Prävalenz*Rücklaufquote)
82
Kartenlink
0
95.V: Ihr(e) AuftraggeberIn sieht Ihre Fallzahlplanung und meint, dass statt einer Genauigkeit von 5% eine von 1% erreicht werden soll. Was antworten Sie, um wie viel dadurch die Stichprobengröße ansteigen wird?
−k^2 mal die Stichprobe, um Fehler um einen Faktor k kleiner zu machen
−5^2 = n*25 → Stichprobengröße wird um n*25 ansteigen!

-> Stichprobe muss ansteigen, wenn Genauigkeit größer werden soll (größere Stichprobe -> kleinerer Standardfehler)
83
Kartenlink
0
77.Wie sieht ein cross-over-design aus? Wozu dient es?
−Ein Cross-over-Design dient dem Ausschließen von falschen Effekten bei klinischen Studien (meist in der Medizin). Die Teilnehmer werden durch Randomisierung zwei Gruppen zugeteilt. Dabei bekommt die 1.Gruppe Präparat/Therapie A zuerst und danach Präparat/Therapie B. Bei der 2. Gruppe ist die Reihenfolge genau umgekehrt.
−Mit falschen Effekt ist folgendes gemeint: Es könnte z.B. sein, dass die Wirkungen des Präparat/Therapie A, welches zuerst dran kam, sich erst im 2.Abschnitt, wenn das andere Präparat/Therapie B zum Einsatz kommt, freisetzen bzw. nachwirken. Würde man kein Cross-over-Design durchführen, könnte man meinen, dass die Nachwirkung von A der Wirkung von B zugeschrieben werden müsste→ falscher Effekt. Von einem "echten" Unterschied kann man erst dann sprechen, wenn bei Gruppe 1 und 2 derselbe Unterschied nachgewiesen werden kann.
84
Kartenlink
0
100.Was besagt die Endlichkeitskorrektur?
−Die Endlichkeitskorrektur (finite population correction, fpc) besagt, dass die Messfehlervarianz um einen Faktor 1-Auswahlsatz sinkt
−Standardfehler: mit Wurzel dieses Faktors
−Wenn man mit der Stichprobe die Population zu einem merklichen Prozentsatz erfasst, so sinkt dadurch die Messungenauigkeit; Erfasst man die Population komplett, so sinkt der Messfehler auf 0, da die Daten vollständig vorhanden sind)
−Bsp.: 75% der Population wurden erfasst
−√(1-0,75) = 0,5
−D.h.: Der Standardfehler sinkt um einen Faktor 0,5
85
Kartenlink
0
102.Welche Gründe gibt es dafür, nur Stichproben zu ziehen und keine Vollerhebungen durchzuführen?
−Vollerhebung sind zu aufwändig oder zu viel Belastung
−Population nicht geschlossen; nicht endlich sondern unendlich (z.B. Populationen, die ständig wachsen, z.B. Vorhandensein BabyBlues bei jeder Mutter eines neugeborenen Kindes - jeden Tag kommen mehr als 100 Kinder auf die Welt)
−Population die nur teilweise bekannt sind (z.B. Population aller burnoutgefährdeten Menschen oder aller selbstmordgefährdeten Menschen schwer zu erfassen)
−Population könnte durch Untersuchung gefährdet, beeinträchtigt oder zerstört werden (z,B. Qualitätskontrollen: Crashtest der gesamten Jahresproduktion eines Automobilherstellers -> alle Auto würden getestet werden und kaputt gehen)
86
Kartenlink
0
103.Was ist Repräsentativität einer Stichprobe, und wie kann man versuchen, sie zu erreichen?
−Stichprobe muss in ihrer Zusammensetzung der Population möglichst ähnlich sein
−Globale Repräsentativität & Merkmalsspezifische Repräsentativität
−Wie wird dies erreicht:
==>Sofern der Auswahlrahmen repräsentativ ist → Zufallsstichproben werden mit wachsender Größe automatisch repräsentativ (außer: sample frame error; bspw. Telefonbuch-Auswahl)
==>Verzerrte Auswahl = Over- oder Undersampling (bestimmte Gruppen sind beispw. überrepräsentiert)
87
Kartenlink
0
104.Welche Arten der Stichprobenziehung kennen Sie? (mit jeweils kurzer Erklärung)
−Probabilistische und nicht-Probabilistische Stichprobenziehung
−Probabilistische Stichprobenziehung: Auswahl der Objekte aus Population erfolgt so, dass die Auswahlwahrscheinlichkeiten aller Objekte gleich oder zumindest bekannt ist.
−Nicht-probabilistische Stichprobenziehung: Hier ist die Auswahlwahrscheinlichkeit einzelner Objekte hingegen unbekannt
−NUR probabilistische Stichproben erlauben Populationsparameter mit entsprechender Präzision zu schätzen
88
Kartenlink
0
105.Welche Datenquellen können als Auswahlrahmen für die Stichprobenziehung dienen?
−Oft ist keine Auflistung der spezifischen Zielpopulation vorhanden → Telefonverzeichnisse, Wählerlisten, Zentrales Melderegister (nur amtliche Statistik), Adresslisten, Kundenlisten, Alumni-Listen etc.
89
Kartenlink
0
106.Was ist der Vorteil bei probabilistischen Sampling-Techniken, und welche dieser Techniken kennen Sie?
−nur probabilisitische Sampling-Techniken erlauben Rückschlüsse auf den Populationsparameter (Schätzung desselbigen)

- Zufallsstichproben werden mit hinreichender Größe und bei unverzerrtem Auswahlrahmen automatisch representativ

-Selektion beruht auf Zufallsmechanismus aus einem Auswahlrahmen -> verhindert systematischen Auswahlfehler

−Sie sind theoretisch klar überlegen, nachvollziehbar und verhindern Bias.

−Einfache Zufallsstichprobe, Klumpenstichprobe, geschichtete Stichprobe, systematisches Sampling
90
Kartenlink
0
107.Was ist eine einfache Zufallsstichprobe, und welche Vorteile/Schwierigkeiten sind dabei zu nennen?
−Einfache Zufallsstichprobe (simple random sample, SRS)=  Man zieht aus einer vollständigen Liste aller Objekte der Zielpopulation nach dem Zufallsprinzip eine Anzahl von Objekten, wobei die Auswahlwahrscheinlichkeiten aller Objekte gleich groß sein muss. (Anzahl Möglichkeiten folgt Binomialverteilung)
−Schwierigkeiten: Jedes Untersuchungsobjekt der Population muss erfasst sein! Diese Voraussetzung ist eher selten.
−Vorteile: Einfache und effiziente Methode, es gibt keinen systematischen Bias (KI’s nach einfacher Formel, Signifikanzprüfung nach üblichen Verfahren, Standardfehler berechenbar)
91
Kartenlink
0
108.Erklären Sie systematisches Sampling.
−= Implizite Schichtung

−Von Startwert ausgehend wählt man jeden k-ten Fall der Liste oder aus einer bestimmten Reihenfolge aus
−Wenn Reihenfolge relevante Information in sich tragen wird diese automatisch ausbalanciert
− Vorsicht ist geboten bei Periodizitäten, also beispielsweise jeder 7. Tag
92
Kartenlink
0
109.Was ist eine geschichtete Stichprobe? Warum schichtet man?
−Die Zielpopulation wird auf Basis einer oder mehrerer Merkmale in Teilpopulationen (Schichten) aufgeteilt.
−Jede Merkmalskombination oder –ausprägung stellt so eine eigene Teilpopulation (nj) dar.
−Aus jeder dieser Schichten wird dann eine Zufallsstichprobe entnommen.
−Man Schichtet, um bei günstiger Auswahl genauere Ergebnisse zu erhalten, da man so die Stichprobe entsprechend des proportionalen Vorkommens bestimmter Merkmale in der Grundgesamtheit aufteilen kann.
−2 Vorteile des Schichtens:
==>Sie reduziert die Varianz, die durch die zufälligen Abweichungen von den entsprechenden Eckzahlen entsteht
==>Sie reduziert den systematischen Fehler, der durch mangelnde Repräsentativität hinsichtlich der Schichtungsvariablen entstehen kann. (z.B. zu wenig junge Personen)
==>Im Gegensatz zu Klumpenstichproben, decken Schichten die gesamte Population ab.
93
Kartenlink
0
111.Skizzieren Sie kurz die Auswertung innerhalb eines sogenannten „komplexen Designs“ in SPSS.
−Vor der Analyse ist es nötig, ein Designfile anzulegen
−SPSS how to:
−Analyze → Complex Samples → Prepare for Analysis
−Man muss für diese Berechnung eine Gewichtungsvariable angeben, welche festlegt, wie viele Personen jeder Fall in der Population repräsentiert. (design variables)
- Populationsgröße pro Schicht angeben und auf Finish
- Danach: Analyze -> Complex Samples -> Descriptives -> Crosstabs
94
Kartenlink
0
112.Was ist Post-Stratifizierung, und wie kann man sie durchführen?
−Wenn Eckzahlen der demographischen Variablen vorhanden → auch nach der Stichprobenziehung schichten
−Dazu werden die Gewichte der Schichten so gewählt, dass sie der Population entsprechen
−Wie durchführen? → SPSS: via Complex Samples → Sample weights können sich je nach Schicht bzw. Merkmalskombination unterscheiden
95
Kartenlink
0
113.Was lässt sich zur Wahl der Größe der Schichten bei einer geschichteten Stichprobe sagen?
−Oft wählt man die Schichtung proportional, d.h. der Anteil der Schicht in der Stichprobe entspricht genau jenem der Population. Man kann aber auch bewusst over- bzw. undersamplen, z.B. um kleinere Gruppen (z.B. Bundesländer) oder bestimmte Risikogruppen mit ausreichender Stichprobengröße erfassen zu können
−Optimale Schichtung, um die Fehlervarianz zu verringern (→ da in die Fehlervarianzen die Varianzen innerhalb der Schichten eingehen, kann man bei optimaler Schichtung die Versuchspersonen so zuteilen, dass mehr Personen jenen Schichten zugeteilt werden, welche sonst besonders viel Fehlervarianz generieren würden)
96
Kartenlink
0
114.Was sind Klumpenstichproben? Warum benutzt man dieses Design? Was ist dabei zu beachten?
−Klumpenstichprobe = Cluster sampling
−Man zieht aus einer in natürlichen Gruppen (Klumpen) gegliederten Population (z.B. Schulen, Spitäler, Orte etc.) nach dem Zufallsprinzip eine Anzahl von Klumpen und untersucht diese Klumpen dann vollständig.
−Klumpenstichpoben sind probabilistische Stichproben.
−(Die mehrstufige Stichprobe (Multi-Stage Sampling): Hier wird zunächst zufällig eine Klumpenstichprobe mit großen Klumpen gezogen (1. Stufe); diese Klumpen werden aber nicht vollständig untersucht, sondern aus ihnen wird eine Zufallsstichprobe gezogen (2. Stufe). Daraus kann man wieder eine Klumpenstichprobe gewinnen, aus der man wieder eine Zufallsstichprobe zieht.)
−Warum benutzt man dieses Design?
==>Achtung! Der Grund für Klumpenstichproben ist meist technischer oder ökonomischer Natur, hier geht es meist nicht um statistische Vorteile (wie bei der geschichteten Stichprobe)
−Zu beachten:
==>Im allgemeinen STEIGT der Standardfehler bei Klumpenstichproben im Vergleich zur einfachen Zufallsauswahl
==>Allerdings bieten Klumpenstichproben interessante analytische Möglichkeiten (Analyse der Varianzen zwischen den Klumpen, Mehrebenenanalysen), um die geht es aber meist nicht
==>Zu Beachten → Klumpen dürfen sich nicht überschneiden
97
Kartenlink
0
115.Was ist der Unterschied zwischen einer Klumpen- und einer geschichteten Stichprobe?
−Schichten decken – im Gegensatz zu Klumpen – die gesamte Population ab
−Klumpen bilden meist organisatorische Einheiten ab, Schichten eher demographische Merkmale
−Kleiner Standardfehler bei großen Unterschieden zwischen den Schichten, aber kleinen Unterschieden zwischen den Klumpen
98
Kartenlink
0
116.Erläutern Sie, warum man Klumpenstichproben nicht wie einfache Zufallsstichproben ausgewertet werden dürfen.
−Statistische Einheiten innerhalb der Klumpen i.a. voneinander abhängig
−Weniger statistische Information als bei (einfacher) Zufallsstichprobe (Designeffekt)
99
Kartenlink
0
117.Erklären Sie Designeffekt und effektive Stichprobengröße.
−Bei Klumpenstichprobe → weniger statistische Information als bei einfacher Zufallsstichprobe vorhanden; obwohl Fallzahl dies nicht vermuten lässt (statistische Verzerrung)
−Designeffekt = Varianz des Schätzers in komplexer Stichprobe / Varianz bei einfacher Zufallsauswahl
−Ein Designeffekt ist eine statistische Verzerrung, die durch ein spezielles Auswahlverfahren einer Stichprobe (Schichtung, Klumpung, Mehrstufige Ziehung) im Vergleich zur reinen Zufallsauswahl (simple random sample) entstanden ist.

Designeffekte treten dadurch auf, dass nicht alle Elemente die gleiche Auswahlwahrscheinlichkeit besitzen, d.h. die Chance in die Stichprobe zu gelangen. Durch geeignete Varianzschätzung und Mittelwertschätzung können die Grundgesamtheitsparameter dennoch gut geschätzt werden.

−Effektive Stichprobe → Um eine effektive Stichprobe zu erhalten sollte gelten:              Tatsächliches n/Designeffekt
−Zusammenhang Designeffekt und ICC: Abschätzung bei konstanter Clustergröße nc: Designeffekt = 1 + Intraklassenkorrelation x (nc-1)
100
Kartenlink
0
118.Was ist eine Intraklassenkorrelation?
−Intraklassenkorrelation (ICC): Gibt Ausmaß der Variabilität an, das durch Kontextvariable erklärt werden kann
−Wertebereich 0 (kein Einfluss der Kontextvariable) bis 1 (alle Variabilität wird durch Kontextvariable erklärt)
−Ist ICC hoch, sind Kontextvariablen von Bedeutung
−ICC = 1    => alle Varianz durch Klassenunterschiede
−ICC = 0   => keine Klassenunterschiede
−ICC = Varianz zwischen / (innerhalb + zwischen)

-> zB −Designeffekt von 8.6 bedeutet, dass die Varianz des geschätzten Parameters zwischen den Klumpen 8.6 mal so groß ist wie die Varianz einer Zufallsstichprobe
101
Kartenlink
0
123.Erklären Sie ad hoc-Stichprobe, theoretische Stichprobe und Quotenstichprobe. Welchen Nachteil bieten alle drei Verfahren? Was unterscheidet Quotenstichprobe von geschichteter Stichprobe?
−Ad-hoc Stichprobe: Gruppe gerade zur Verfügung stehender Personen
−Theoretische Stichprobe: Die/der WissenschaftlerIn sucht nach Vorgabe theoretischer Überlegungen typische oder untypische/ interessante Fälle bewusst aus
−Quotenstichprobe: Hier werden prozentuale Anteile für bestimmte Merkmalskategorien vorgegeben und eventuell auch für Merkmalskombinationen, die Auswahl innerhalb dieser Quoten bleibt dem Forscher (nicht dem Zufall!) überlassen

−Nachteile: Populationsparameter kann nicht ausreichend geschätzt werden; keine repräsentativen Stichproben (kein Zufallsprinzip)

−Geschichtete Stichprobe = Nach Zufallsprinzip aus Schichten gezogen (repräsentativ); Quotenstichprobe = ad hoc Methode um Quoten zu erreichen (nicht repräsentativ)
102
Kartenlink
0
125.Was kann man tun, um Rücklaufquote zu erhöhen? Welche Probleme stellen sich bei geringem Rücklauf?
−Je homogener eine Population, desto besser ist der Rücklauf (>60% ist sehr gut - üblicherweise zwischen 10%-90%)
−Postalische Befragungen weisen eher geringe Rücklaufquoten auf
−Befragungen die von einer Autorität kommen (z.B. Betriebsrat, Universitäten, Forschungseinrichtungen, etc.) führen zu höheren Rücklaufquoten.
−Kleine ‚Incentives‘ verbessern den Rücklauf!
−Interessante Fragestellungen → höhere Rücklaufquote
−Wichtig ist Formulierung der Fragen (Keine Tipp/Rechtschreibfehler!) und Layout
−Erinnerungsschreiben nach Ablauf der Rücksendefrist
−Problem des geringen Rücklaufs → Eine geringe Rücklaufquote ist dann problematisch, wenn angenommen werden kann, dass sich Personen die antworten, von solchen die nicht antworten, systematisch unterscheiden
103
Kartenlink
0
126.Welche beiden Arten von non-response kennen Sie?

−Unit non-response → statistische Einheit (Person/Unternehmen etc.) gibt überhaupt keine Antworten bzw. nicht teil
−Item non-response → einzelne Items wurden nicht beantwortet (missing values)
104
Kartenlink
0
127.Welche Probleme kann man sich durch fehlende Werte einhandeln?
−Weniger statistische Information (Verlust an Stichprobengröße) = unsystematischer Fehler
−Non-Response-Bias = Ergebnisse systematisch verzerrt, da sich Personen mit fehlenden Antworten systematisch von denen unterscheiden, die geantwortet haben. Das bezieht sich sowohl auf unit- als auch auf item non-response
105
Kartenlink
0
128.Welche Ursachen für unit non-response kennen Sie?
−Kein Vertrauen (e.g. Datenschutz)
−Keine Zeit / sind verhindert
−Kein Interesse seitens Respondent*innen vorhanden
−Lehnen Forschungsthema/Fragen/Erhebung ab
−Senden nicht zurück / scheitern daran
106
Kartenlink
0
129.Welche Ursachen für item non-response kennen Sie?
−Sensitive Information
−Frage übersehen
−Sind verärgert / lehnen Frage ab
−Nicht mehr interessiert
−Schämen sich zu antworten
−Verstehen die Frage nicht
−Kennen die Antwort nicht / oder nur komplizierte Antwort
107
Kartenlink
0
130.Beispiele für non-response bias.
−Haushalte mit sehr hohem bzw. sehr niedrigem Einkommen seltener zu Befragungen bereit → Unterrepräsentierung → Unterschätzung v. Armut
−Traditionelle Männer könnten bei Befragungen über Geschlechterrollen ggf. weniger häufig teilnehmen wollen → Traditionalismen kaum sichtbar
−Ältere Personen in Online-Fragebögen u.U. unterrepräsentiert
108
Kartenlink
0
131.Wie lässt sich non-response in Hinblick auf seine Zufälligkeit charakterisieren? Welche Probleme sind jeweils damit verbunden?
−Missing completely at random (MCAR): Ausfall unabhängig von der Ausprägung des erfragten Merkmals → Problem: unsystematischer Fehler; kein Bias (Fehler) durch non-response
−Missing at random (MAR): Ausfall unabhängig von der Ausprägung des erfragten Merkmals, aber abhängig von anderen Merkmalen der Person  → Meist kein Bias, wenn bspw. demographische Variablen kontrolliert werden
−Ausfall unabhängig von der Ausprägung des erfragten Merkmals aber auch abhängig von anderen, unbekannten Merkmalen: Bei nicht repräsentativer Stichprobe, Bias schwer abzuschätzen
−Not missing at randon: Ausfall abhängig von der Ausprägung des erfragten Merkmals → Schlimmster Bias, da systematische Verzerrung vorhanden, die kaum kontrolliert werden kann (→ non responder analysis)
109
Kartenlink
0
132.Wie kann man mit non-response umgehen? Welche Nachteile sind jeweils damit verbunden?
−Vermeiden wo nur möglich
−Ignorieren des Problems führt zu SPSS default
−Reduktion auf vollständige Fälle → Bias möglich
−Bei Unit-non response → Aufgewichten unterrepräsentierter Gruppen
−Imputation = Ersetzen der fehlenden Werte durch plausible Werte → erfundene vs. verzerrte Daten
110
Kartenlink
0
133.Was ist Imputation? Welche Imputationstechniken kennen Sie?

−= Ersetzen der fehlenden Werte durch plausible Werte
−Deductive imputation: Wert kann logisch „verlässlich“ erschlossen werden (80+ => Pension; fehlende Reisekosten selber schätzen)
−Imputation des Gruppenmittelwerts (verändert Verteilung! Noch zufälligen Fehlerterm einfügen)
−Imputation eines Zufallswerts oder einer bestimmten Verteilung entsprechend (Gefahr der „Verwässerung“ der Verteilung bzw. der Zusammenhänge)
−Spendermodelle: Ersetzung durch Wert von ähnlicher Person („hot deck“ = Werteliste von Personen mit gleichen Charakteristiken, wähle sukzessiv von dort; „nearest neighbour“)
−Regressionsmodelle: sage fehlenden Werte aufgrund anderer Merkmale vorher (um Varianz zu erhalten, werden wieder zufällige Fehlerterme eingeführt)
111
Kartenlink
0
134.Worauf testet Little’s MCAR-Test?
−Testet, ob Werte missing completely at random sind; erlaubt globale Beurteilung der MCAR-Bedingung
−Chi-Quadrat Verteilungstest
−Wenn Signifikant → Nicht MCAR
112
Kartenlink
0
135.Was geschieht bei multipler Imputation?
−Multiple Imputation: erzeugt mehrere Versionen des Datensatzes mit jeweils verschieden imputierten fehlenden Werten
−In PISA, PIAAC etc. „plausible values“
−Parameter wird anhand jeden Datensatzes geschätzt → Verteilung der Parameter wird gewonnen (Fokus auf Verteilung nicht auf Punktschätzung); Ziehung aus Verteilung
113
Kartenlink
0
136.Welche Probleme stellen sich allgemein bei der Imputation von Daten?
−Es handelt sich um fiktive Daten
−Korrekte p-Werte schwierig → abhängige Daten (weniger unabhängige statistische Information in den Daten als der Computer glaubt)
−Univariate Verteilungen normalerweise gut angenähert
−→ Bivariate Verteilungen können unbrauchbar sein, wenn Variablen unabhängig voneinander komplettiert wurden
−BEISPIEL: Geschlecht imputiert nach Region, Bildung, Familienstand → bei Verkreuzung mit Beruf – katholische Priesterinnen möglich, bzw. zu viele Kindergärtner, Fußballtrainerinnen oder Männer in Karenz
114
Kartenlink
0
137.Was ist data editing?
−= Datenbereinigung bzw. „Korrektur“
−Wichtigkeit von Plausibilitätschecks, „data editing“ und „data cleaning“, viel Aufwand in nationalen Erhebungen!
−Teils händisch, teils maschinell
−Mikroebene = Stimmigkeit innerhalb einer Person
−Makroebene = Plausibilität der globalen Verteilung (z.B.: kann es so viele oder so wenige Schulabbrecher*innen geben?)
115
Kartenlink
0
142.Was ist eine non-responder-Analyse, und wozu dient sie?
−Bei einer non-responder-Analyse wird grundsätzlich auf Basis der soziodemographischen Daten der Stichprobe analysiert, ob sich die Antwortausfälle bei Fällen mit bestimmten Charakteristiken häufen und testet, ob statistische Unterschiede zwischen Respondern und Non-Respondern bestehen
−dient der Vermeidung von Ergebnisverzerrungen
−kann im Datensatz selbst vorgenommen werden oder über eine erneute Kontaktaufnahme zu Non-ResponderInnen mit reduziertem Fragenset (unter der Annahme, dass wenigstens einige Personen bei dieser erneuten Kontaktaufnahme auf die jeweiligen Fragen antworten werden)
116
Kartenlink
0
143.Was ist propensity score matching, und wozu dient es?
−Schätzung der Wahrscheinlichkeit der Kontroll- oder der Versuchsgruppe anzugehören; aus diversen Kovariaten geschätzt (meist demographisch)
−Modellierung v. präexperimentellen Unterschieden und Verzerrung bei Zuteilung→ Reduzierung der Verzerrung soll erreicht werden
−Generierung von parallelen Stichproben möglich
117
Kartenlink
0
144.Wie kann man propensity score matching auf das Problem fehlender Werte anwenden?
−Propensity score berechnen, um die Wahrscheinlichkeit für eine fehlende Antwort zu generieren (mit diversen Kovariaten als Prädiktoren)
−Sollte Verzerrung reduzieren, die durch systematische Zusammenhänge zwischen non-response und Kovariaten entstehen
−Bei fehlendem Wert → Ersetzen durch Wert einer Person mit ähnlichem PS
Kartensatzinfo:
Autor: MarieYsegrimus
Oberthema: Psychologie
Thema: Forschungsmethoden für Fortgeschrittene
Schule / Uni: Uni Wien
Veröffentlicht: 06.05.2019
Tags: Ponocny
 
Schlagwörter Karten:
Alle Karten (117)
keine Schlagwörter
Missbrauch melden

Abbrechen
E-Mail

Passwort

Login    

Passwort vergessen?
Deutsch  English