CoboCards App FAQ & Wünsche Feedback
Sprache: Deutsch Sprache
Kostenlos registrieren  Login

Hol' Dir diese Lernkarten, lerne & bestehe Prüfungen. Kostenlos! Auch auf iPhone/Android!

E-Mail eingeben: und Kartensatz kostenlos importieren.  
Und Los!
Alle Oberthemen / Differenzielle Psychologie / Alle Kapitel

VO Persönlichkeits- und differentielle Psychologie (221 Karten)

Sag Danke
1
Kartenlink
0
Was ist das Forschungsfeld der differentiellen Psychologie?
Die differentielle Psychologie erforscht Unterschiede im Erleben und Verhalten von einzelnen Menschen und Menschengruppen.
Tags: Definition, differentielle Psychologie
Quelle: VO01, 3
2
Kartenlink
0
Wovon sind die Unterschiede im Erleben und Verhalten einzelner Menschen und Menschengruppen abhängig?
Unterschiede sind abhängig von
  • Eigenschaften der Person
  • sozialen Bedingungen
  • situativen Kontexten
Tags: Definition, differentielle Psychologie, Unterschiede
Quelle: VO01, 3
3
Kartenlink
0
Worauf liegt der Fokus der differentiellen Psychologie als empirische Wissenschaft?
  • Systematische Erlebens- und Verhaltensvariationen
  • die grundsätzlich reproduzierbar sind und sich
  • von Zufallsbedingten Unterschieden (Messfehlern) abgrenzen lassen.


Die systematischen Variationen im Erleben und Verhalten werden betrachtet hinsichtlich
  • Ursprung
  • Beschaffenheit
  • Beeinflussbarkeit (Trainierbarkeit)


Tags: Definition, Differentielle Psychologie
Quelle: VO01, 3
4
Kartenlink
0
Auf welche Unterschiede beziehen sich die Fragestellungen in der differentiellen Psychologie?
  • Interindividuelle Unterschiede zwischen Personen zu einem Zeitpunkt (Querschnitt)
  • Intraindividuelle Unterschiede innerhalb von Personen zu mehreren Zeitpunkten bzw. Situationen (Längsschnitt)
Tags: Definition, differentielle Psychologie
Quelle: VO01, 4
5
Kartenlink
0
Welche Themen der Alltagspsychologie müssen bei der differentiellen Psychologie als empirische Wissenschaft überwunden werden?
  • Sogenannte "Implizite Persönlichkeitstheorien" und Verfälschungstendenzen in der Personenwahrnehmung (wie z.B. Halo-Effekt; "Erster Eindruck" etc.) trüben die Objektivität unseres Blicks auf andere.
  • Unabhängig von der Frage, wie individuelle psychische Unterschiede entstehen und aufrecht erhalten werden (genetisch und/oder erfahrungsbedingt), stellen sie eine Voraussetzung personaler Identität und Individualität dar. Phänotypische Gleichheit (Ununterscheidbarkeit) und Individualität schließen einander logisch aus.
  • Erst wenn Individuen sich stabil unterscheiden und Angehörige der eigenen Art sicher differenzieren und identifizieren können, kann der einzelne seine Identität definieren und seine Individualität entwickeln und behaupten.
  • Differentialpsychologische Forschung stellt somit Individualität (bis hin zur individuellen Einzigartigkeit) nicht in Frage, sondern schafft Voraussetzungen dafür, Individualitäten in einem einheitlichen Begriffssystem möglichst objektiv beschreiben und identifizieren zu können.
Tags: Definition, Differentielle Psychologie
Quelle: VO01, 5
6
Kartenlink
0
Wann war der Beginn der Psychologie als eigenständige Wissenschaft?
Gründung des weltweit ersten Instituts für experimentelle Psychologie 1879 durch Wilhelm Wundt in Leipzig
Tags: Entstehung, Geschichte, Psychologie
Quelle: VO01, 9
7
Kartenlink
0
Wer gilt als Begründer der differentiellen Psychologie?
William Stern
forderte um 1900 bereits eine differentiell-psychologische Sichtweise.
(1871, Berlin - 1938 North Carolina)

- 1900 "Über Psychologie der individuellen Differenzen": Idee einer differentiellen Psychologie mit empirisch-statistischem Ansatz sowie erste systematische Begründung und Darstellung der Differentialpsychologie
- 2. Auflage 1911 mit dem Titel "Die differentielle Psychologie in ihren methodischen Grundlagen"
Tags: differentielle Psychologie, Geschichte
Quelle: VO01, S1
8
Kartenlink
0
Wie ist der Zusammenhang zwischen der allgemeinen vs. der differentiellen Psychologie? Welche Ziele verfolgen die beiden Richtungen?
Allgemeine Psychologie
  • nomothetische Zielsetzung ("gesetzgebende")
  • Ein Phänomen soll universell - also für alle Individuen gleichartig - erklärt werden, wobei individuelle Unterschiede als Messfehler (Error) interpretiert werden.

Differentielle Psychologie
  • idiographische Zielsetzung ("einzelcharakterisierende")
  • In den Bereich der differentiellen Psychologie fallen Aussagen, welche die Ursache und Entstehungsbedingungen von individuellen Schwankungen bei Personen(-gruppen) zum Inhalt haben.

Die beiden Bereich werden heutzutage nicht mehr als Gegenpol gesehen, sondern als wichtige, methodische, komplementäre Ergänzung in der Erforschung zeitlich und transsituativ stabiler Verhaltensweisen.
Erst das Zusammenspiel beider Forschungsansätze ermöglicht es, relevante Abweichungen von allgemeinpsychologischen Gesetzmäßigkeiten aufzuzeigen.
Tags: Abgrenzung, Definition, Differentielle Psychologie
Quelle: VO01, 10
9
Kartenlink
0
Welche allgemeinpsychologische und differentialpsychologische Hypothesen bzw. Aussagen gibt es anhand dem Sander'schen Parallelogramm?

Antwort: Die linke Diagnolae (L) ist kürzer als die rechte Diagonale (R).

Allgemeine Psychologie: universielle Erklärung für diese Phänomen, individuelle Unterschiede werden als Messfehler interpretiert.
Beispiel: In Abhängigkeit der Längen von L und R fällt der Täuschungsprozentsatz T% unterschiedlich aus
Zum Sander'schen Paralellogramm sind etliche allgemeinpsychologische Hypothesen entwickelt worden (wahrnehmungspsychologische, entwicklungs- und neuropsychologisch) - die aber alle nicht unwidersprochen geblieben sind.

Differentielle Psychologie: fällt Aussagen, welche die Ursachen und Entstehungsbedingungen von individuellen Schwankungen bei Personen(gruppen) zum Inhalt haben.
Beispiel: Das Ausmaß des Täuschungsprozentsatzes variiert in unterschiedlichen Gruppen: bei weißen VPN [W] höher als bei Schwarzafrikanern [F] (Segall et al, 1996)
Tags: Definition, differentielle Psychologie
Quelle: VO02, S8
10
Kartenlink
0
Welche Bereiche umfasst der Oberbegriff der "differentiellen Psychologie"?
  • Leistungsbereich: Wahrnehmung, Gedächtnis, Lernen
  • Persönlichkeitsbereich: Temperament, Emotionalität, Motivation, Interessen

(Unterteilung analog zu gängigen psychodiagnostischen Erhebungsinstrumenten: Leistungs- und Persönlichkeitstests)

WICHTIG: pathologische Merkmale und Dispositionen sind NICHT Gegenstandsbereich der Differentiellen Psychologie sondern der klinischen Psychologie
Tags: Definition, differentielle Psychologie
Quelle: S10
11
Kartenlink
0
Was sind die Forschungsvoraussetzungen differentialpsychologischer Forschung?
Bei allen Merkmalen (Eigenschaften, Variablen), die sich zur Charakterisierung von Menschen eigenen, muss es sich um
  • quantifizierbare Merkmale handen und (Operationalisierung)
  • Verlangt wird eine präzise Definition dessen, was man unter einem psychologischen Merkmal (Konstrukt) versteht (z.B. räumliche Vorstellungsvermögen) und wie man dieses messen (quantifizieren bzw. operationalisieren) kann
  • eine Streuung der Merkmalsausprägungen gegeben sein (Sinnhaftigkeit der Fragestellung)
  • Thematisiert die Sinnhaftigkeit von Merkmalen für differential-psychologische Fragestellungen (keine Merkmalsvarianz - Merkmal nicht sinnvoll)

Operationalisierung:
Eindeutige Beschreibung des Merkmals (Sachverhalts) durch jene Operationen (Messvorschriften), die zur konkreten Erfassung des Merkmals (vom Forscher) definiert werden (z.B. Anzahl gelöster Aufgaben im Raumvorstellungstest)
Tags: differentielle Psychologie, Forschung, Operationalisierung, Streuung
Quelle: S11
12
Kartenlink
0
Was sind die methodischen Zugänge nach W. Stern im Überblick?
Systematik (theoretisch-methodische Zugänge)
  • Variationsforschung: Eine Merkmalsvarianz wird an vielen Personen(‐gruppen) untersucht, z.B. Anlage/Umweltforschung; Geschlechtsunterschiede
  • Korrelationsforschung: 2 oder mehrere Merkmale an vielen Personen (z.B. faktorenanalytische Intelligenzforschung)
  • Psychographie: Eine Person in Bezug auf viele Merkmale; z.B. Interpretationen eines Persönlichkeitsprofils in der psychologischen Diagnostik)
  • Komparationsforschung: Zwei oder mehrere Personen in Bezug auf viele Merkmale; z.B. Einsatz von Typisierungsverfahren um Risikogruppen aufzufinden)

Tags: Methoden, Stern
Quelle: S12
13
Kartenlink
0
Was ist die Variationsforschung?
Wie unterscheiden sich Person bzw. Personengruppen in einem Merkmal.
Es geht um die Varianz der Ausprägungen (Abstufungen, Beträge) eines Merkmals, das an vielen Personen gemessen wurde.

Beispiele:
- Geschlechts- oder kulturvergleichende Untersuchungen
- Frage nach umwelt- bzw. erbbedingten Varianzanteil eines Merkmals (Zwillingsforschung)

Prinzip der Vorgehensweise: Varianzzerlegung - Untersuchung von Kausalzusammenhängen

(Anmerkung: um zeitliche bzw. situative intraindividuelle Schwankungen zu berücksichtigten erweiterte Cattell um eine 3. Dimension (Zeit))
Tags: Stern, Variationsforschung
Quelle: S13
14
Kartenlink
0
Was ist Korrelationsforschung?
Behandelt wie Eigenschaften miteinander zusammenhängen. Es geht dabei um den statistischen Zusammenhang (Ähnlichkeit) von zwei oder mehreren Merkmalen, für die von denselben Personen Daten vorliegen.

Beispiele:
- Untersuchung zum Zusammenhang von Lügen und Stehlen, Schulleistung in Physik und Mathematik, Beliebtheit und Tüchtigkeit,...

Korrelationsforschung nimmt einen besonders breiten Raum ein und viele Methoden wurden dafür entwickelt - z.B. Faktorenanalyse.
Die Methode der Faktorenanalyse hatte mit ihrem Ziel, aus vielen Einzelkorrelationen nur wenige, wesentliche Faktoren herauszufiltern großen Einfluss auf die Entwicklung von sog. Intelligenz- und Persönlichkeitstheorien.
Tags: Korrelationsforschung
Quelle: S13
15
Kartenlink
0
Was ist Psychographie? Nenne ein Beispiel.
Ziel ist die Beschreibung von Einzelindividuen in Bezug auf viele Eigenschaften.

- ältester der vier methodischen Zugänge
- vor allem im Anwendungsbereich (psychologische Diagnostik, Berufs- und Eignungspsychologie, Beratungsinstitutionen, klinische Psychologie)

Beispiel: HAWIE-R - Intelligenzprofil über 8 Subtests
(Hamburg-Wechsler Intelligenztest für Erwachsene)
Das Niveau des Profils (mittlere Leistung in allen Subtests) beschreibt die "Allgemeine Intelligenzhöhe" (IQ).
Die Profilgestalt (Unterschiede in den Leistungen zwischen den Subtests) beschreibt die "Intelligenzstruktur".


(Grafik: IQ knapp überdurchschnittlich, die ersten 4 Tests (mit höheren Werten) gehören zum Verbalteil, die letzten 4 zum Handlungsteil - daher: Person sprachlich besser als nicht-sprachlich)
Tags: HAWIE, Intelligenz, Psychographie, Stern
Quelle: S14
16
Kartenlink
0
Was ist Komparationsforschung?
Nenne ein Beispiel.
Ziel ist die Bestimmung der Ähnlichkeit zwischen zwei oder mehreren Personen, die durch eine Reihe von Merkmalen charakterisiert sind.
Es sollen also Personen(-gruppen) identifiziert werden, die sich in Bezug auf viele Merkmale ähnlicher sind als andere.

Beispiele:
- Typologien von Kretschmer (1921): Verbindung von Körperbautypen mit gewissen Charaktereigenschaften

Methoden: Clusteranalyse, Latent Class Analyse, Konfigurationsfrequenzanalyse

Beispiel:
Sind „Computerfreaks“ anders?
Auf der Suche nach Typen (2002)
Psychologischer Zugang: Basis 20 Einstellungsfragen. Beispiele:
- Ich glaube, Computerkenntnisse sind für jedermann nützlich.
- Durch die Beschäftigung mit Computern gewinne ich neue Freunde.
4 PC‐Einstellungstypen
  • Anti‐PC (n=170; 16.1%)
  • Differenziert Negative (n=376; 35.7%)
  • Differenziert Positive (n=376; 35.7%)
  • PC‐Freaks (n=131; 12.4%)

Ergebnisse: PC‐Einstellungstypen und Persönlichkeit (2002) - Persönlichkeitsfragebogen „Big Five“
Tags: Komparationsforschung, Stern
Quelle: S15
17
Kartenlink
0
Wie erweiterte Cattell das Stern'sche Schema?
R.B. Cattell (1957)

Neben Person und Variable (Merkmal) sind auch Situationen (Zeit) zu berücksichtigen (Situationsabhängigkeit von Verhalten).
- Erweiterung der Dimension "Situationsabhängigkeit von Verhalten"

Es ergeben sich 6 unterschiedliche Betrachtungsweisen von Zusammenhängen (Korrelationstechniken).

Differentialpsychologische Fragestellungen ergeben sich damit aus der Betrachtung von Zusammenhängen zwischen:
1) Personen & Merkmale (in einer Situation: Q & R)
2) Personen & Situationen (hinsichtl. eines Merkmales: S & T)
3) Merkmale & Situationen (einer Person: 0 & P)

Tags: Cattell, Korrelation, Stern
Quelle: S16
18
Kartenlink
0
Was sind Beispiele für die unterschiedlichen Korrelationstechniken nach dem Modell von Cattell?
Beispiele zu den unterschiedlichen Korrelationstechniken:
  • O-Technik: ein Student in unterschiedlichen Situationen im Studium auf bestimmte Merkmale (z.B. Sozialbezug)
  • P-Technik: Zusammenhang zw. Puls und Atemfrequenz einer Person bei Vorgabe verschiedener stark sexuell stimulierende Bilder
  • Q-Technik: Ähnlichkeit von Patienten bezüglich verschiedener psychischer und physischer Beschwerden
  • R-Technik: Zusammenhang zw. Lügen und Stehlen, Schulleistung in Latein und Mathematik, Erziehungsstil der Eltern und Deliquenz
  • S-Technik: Ähnlichkeit von Schülern hinsichtlich ihrer Schulleistungen zu verschiedenen Zeitpunkten
  • T-Technik: vergleich von Zahnarztbesuch, Prüfungssituation, Horrorfilm, etc. hinsichtlich ihrer Angsterzeugung bei verschiedenen Personen

Tags: Cattell, Korrelation
Quelle: S16
19
Kartenlink
0
Welche zwei Forschungsansätze lassen sich aus der Stern'schen "Person x Merkmals-Matrix" ableiten?
Der typologische Ansatz (aus Komparationsforschung ableitbar):
Personen werden nach Ähnlichkeit hinsichtlich wesentlich erscheinender Merkmale gruppiert (vgl. historische Typologien).

Hauptproblem: Eindeutige Platzzuweisung des Einzelnen. Heute wird durch verbesserte statistischer Methoden (z.B. Clusteranalyse, Latent-Class Analyse, Konfigurationsfrequenzanalyse) versucht, Typen derart zusammenzufassen, dass Merkmalsunterschiede zwischen Personen desselben Typs kleiner sind als jene, von Personen mit verschiedener Typenzugehörigkeit = statistische Typisierungsverfahren.

Historische Beispiele für Typologien:
  • Hippokrates: gruppierte Individuen nach dem Vorherrschen eines "Körpersaftes" in 4 Temperatmente: Sanguiniker, Phlegmatiker, Choleriker, Melancholiker
  • Kretschmer (1921): Charaktertypologien aufgrund von Konstitutionstypen (pyknisch, athletisch, leptosom)

Das Eigenschaftsmodell (Trait‐Modell) (aus Korrelationsforschung ableitbar):
Auf jeder Trait‐Dimension (z.B. Extraversion) sind prinzipiell beliebig feine Abstufungen gegeben. Durch Kombination mehrerer Dimensionen kann eine präzise Persönlichkeitscharakterisierung vorgenommen werden.

- Vorteil liegt in der Ökonomie des Beschreibungssystems.
- Problem: Kommunikation der Traits, denn alltagssprachliche Begriffe sind oft sehr breit (haben einen großen "Bedeutungshof") - Operationalisierung der Traits notwendig.
Tags: Trait-Modell, Typologischer Ansatz
Quelle: S16
20
Kartenlink
0
Was sind historische Definitionsversuche von "Typus"?
(Typologischer Ansatz)

  • Stern (1921):
  • Typus ist die vorwaltende Disposition psychischer oder psycho-physischer Art die einer Gruppe von Menschen in gleicher Art zukommt.
  • Rohracher (1965):
  • Typus ist durch einen Merkmalskomplex charakterisierte Gruppe wobei die Einzelmerkmale in verschiedenen Grad vorhanden sein können.
Tags: Typologischer Ansatz
Quelle: S17
21
Kartenlink
0
Erkläre anhand eines Beispiels den Zusammenhang der beiden Forschungsansätze (Typologischer Ansatz vs. Trait-Modell)?
Trait-Modell
H. J. Eysenck (1965) erklärt Affektivität mittels zweier Faktoren (Dimensionen)
1. Introversion / Extraversion
2. Emotionale Stabilität / Labilität
(Faktoren wurden empirisch ermittelt)

Typologischer Ansatz von Hippokrates
- Vorherrschen eines Körpersaftes - 4 Temperamente: Sanguiniker, Phlegmatiker, Choleriker und Melancholiker
- Basieren auf subjektiven Beobachtungsdaten

Grafik zeigt die Beziehung zwischen den Modellen. Jeweils niedrige bis mittlere Faktorenausprägungen charakterisieren recht gut die vier Temperamente.
Tags: Trait-Modell, Typologischer Ansatz
Quelle: S18
22
Kartenlink
0
Was sind die 5 Hauptfragestellungen der differentiellen Psychologie im Überblick?
Vier Hauptfragestellungen aus Systematik nach Stern und Methodenentwicklung:
  1. Variationsforschung
  2. Korrelationsforschung
  3. Psychographie
  4. Komparationsforschung
  5. Differentiell‐psychologische Methodenentwicklung (Tests, Fragebogen etc.)
  6. - Berührungspunkte mit psychol. Diagnostik- Ausarbeitung neuer Erhebungsmethoden- Entwicklung (formaler) Modelle und Methoden zur Qualitätskontrolle- Testtheorien (Klassische Testtheorie vs. Item Response Theory, IRT)Behandelt werden Fragen wie:‐ Welche Items sind geeignet, um ein Konstrukt zu erfassen?‐ Messen Tests fair? (z.B. für Geschlechts‐ und Altersgruppen etc.)‐ Ist der Verrechnungsmodus im Tests korrekt?

Tags: differentielle Psychologie, Komparationsforschung, Korrelationsforschung, Methoden, Psychographie, Variationsforschung
Quelle: VO02
23
Kartenlink
0
Womit beschäftigt sich die trait-orientierte Forschung?
  • Beschreibung/Operationalisierung von Traits, in denen es individuelle Unterschiede gibt
  • Generalität von Traits (Situationsabhängigkeit?):
  • Es stellt sich die Frage, wie leicht ein Merkmal durch verschiedenen "Situationsdruck" modifiziert werden kann bzw. wie generell es auftritt.
  • Stabilität von Traits (über die Zeit):
  • je stabiler, desto geeigneter, Persönlichkeit zu beschreibenSo weist z.B. der IQ nach Bloom 1964 eine Stabilität von r=.78 auf; instabil hingegen sind etwa politische Einstellungen mit r=.20)
  • Ursachen von Traits
  • Anlage/Umwelt-Problematik: Welcher Anteil der Gesamtvarianz ist auf genetische, welcher auf Umwelteinflüsse rückführbar?
  • Wechselseitige Abhängigkeiten von Traits (Zusammenhänge)
  • Wie viele unabhängige Dimensionen sind notwendig, um Intelligenz oder Persönlichkeit zu beschreiben?
  • Änderbarkeit von Traits
  • z.B. Frage der Trainierbarkeit: Wie? In welchem Ausmaß?Messproblem dabei: Boden- bzw. Deckeneffekte.
Tags: Trait-Modell
Quelle: S18
24
Kartenlink
0
Was versteht man unter der zeitlichen Stabilität von Eigenschaften?
Zeitliche Stabilität von Eigenschaften beudeutet nicht Konstanz der individuellen Werte über verschiedene Messzeitpunkte, sondern Konstanz der interindividuellen Unterschiede über Messzeitpunkte.

Nur wenn Eigenschaften zumindest mittelfristig stabil sind, können wir von „Aspekten der Persönlichkeit“ sprechen.

Links: variiert die Fröhlichkeit beider Personen intraindividuell stark zwischen den Tagen, der Fröhlichkeitsunterschied zwischen den Personen je Tag ist aber etwa gleich. - weißt auf eine stabile Eigenschaft hin.

Rechts: intraindividuelle Unterschiede über die Zeit hinweg sind geringer, die interindividuellen Unterschiede sind allerdings nicht annähernd konstant. - Fröhlichkeit kein geeigneter Eigenschaftsindikator.
Tags: Stabilität, Trait-Modell
Quelle: S19
25
Kartenlink
0
Was versteht man unter Variable und Variablenwert und was wird in der Differentialpsychologie betrachtet?
Mit dem Begriff Variable sei angedeutet, dass es sich nicht um persönliche (auf das Einzelindividuum bezogene) Merkmale handelt, sondern im Gegenteil:
Jeder Person einer Population (Grundgesamtheit) kann in jeder Variable ein Variablenwert (Merkmalsausprägung) durch „Messung“ zugewiesen werden.

Daraus folgt:
  • Variable (Merkmale) charakterisieren Populationen
  • Variablenwerte (Merkmalswerte) charakterisieren einzelne Personen

Um die Merkmalsausprägung einer Einzelperson beurteilen zu können, wird sie im differentiellen Ansatz in Vergleich zur Population interpretiert (- Populationsbezogenheit differntialpsychologischer Aussagen)
Tags: Definition, Merkmal, Variable
Quelle: S20
26
Kartenlink
0
Was versteht man unter der analytischen und der operationalen Definition?
Analytischen Definitionen
Damit geben Forscher zu verstehen, was sie mit einem bestimmten Begriff bezeichnen wollen.
- Verständnis des einzelnen Forschers / der Forscherin bezüglich des Untersuchungsgegenstandes soll transparent gemacht werden (z.B. Intelligenzdefinitionen).

Für die empirisch‐quantitative Forschung reichen analytische Definitionen vielfach nicht aus, weil die Messvorschriften zur Erfassung der Variablen fehlen. Daher …

Operationale Definitionen
Diese standardisieren einen Begriff durch …
  • die Angabe der Operationen, die zur Erfassung des durch den Begriff bezeichneten Sachverhalts notwendig sind
  • oder durch Angabe der messbaren Ereignisse, die das Vorliegen des Sachverhalts anzeigen (Indikatoren).

(geht auf Bridgman, 1972, zurück)

Die analytische und operationale Definition können wechselseitig zu Präzisierung der Definition beitragen:
- Operationale Definition setzt ausführliche Bedeutungsanalyse voraus
- führen verschiedene Operationalisierungen desselben Begriffs zu widersprüchlichen Ergebnissen, so ist der Begriff offensichtlich noch nicht präzise genug definiert.
Tags: analytische Definition, operationale Definition, Operationalisierung
Quelle: S20
27
Kartenlink
0
Welche Forschungsrichtungen gibt es in der differentiellen Psychologie?
Anfänge um 1900, erste testpsychologische Untersuchungen
  • Pädagogische Psychologie
  • Arbeits- und Berufspsychologie
  • später: Klinische Psychologie und klinische Psychiatrie

bis heute Fokus auf psychologische Diagnostik


Mit steigender Differenzierung und Spezialisierung der Ausbildungs-, Arbeits- und Lebensbedingungen wachsende Bedeutung von Analyse individueller Unterschiede in Personeneigenschaften (traits).
Differentielle Psychologie beschäftigt sich in unterschiedlichen Ansätzen mit als
  • zeitüberdauernde stabil angesehene Eigenschaften (Personalismus bzw. Dispositionismus), mit dem
  • Einfluss situativer Gegebenheiten (Situationismus) und mit der
  • Interaktion zwischen Person und Situation (Interaktionsmus.)

(Während im Situationismus die verschiedenen Situationen als die wesentliche Varianzquelle für individuelle Unterschiede im Erleben und Verhalten angesehen werden, stehen im Interaktionismus die Interdependenzen zw. Personen und Situationen (Umwelten) im Vordergrund)
Tags: differentielle Psychologie, Forschung
Quelle: S21
28
Kartenlink
0
Was sind die Anfänge der psychologischen Testung?
  • Chinesen - vor mehr als 4000 Jahren (2200 v. Chr.)
  • Begannen "Fitness" von Regierungsmitarbeitern zu testen
  • 1115 v. Chr.: Auswahl in 6 "Basiskünsten": Musik, Bogenschießen, Reiten, Schreiben,  Rechnen und Wissen um Riten und Zeremonien des öffentlichen und privaten Lebens.
  • Auswahlsystem wurde vielfach variiert - endgültige Form im 14. Jhdt. (letzte Testung 1905)
  • Ablauf
  • - 3 Prüfungen jedes Jahr in der Hauptstadt des Distrikts: 24h, isolierte Einzelzelle, 1 Gedicht und 2 Essays (kalligraphische Aufsführung und Qualität)- 3x3 Tage in Provinzhauptstadt: Prosa und Verse schreiben, Leseprüfung, Wissen und Bildung - Ergebnisse wurden übertragen und unabhängig von 3 Personen beurteilt ("Blinde" Textauswertung)- Prüfung in Hauptstadt: 3% erreichten Titel des "Mandarin"
  • Annahme: Menschen unterscheiden sich hinsichtlich Traits und diese Traits sind stabil und können generalisiert werden.

In Europa gab es in der Antike und im Mittelalter keine formellen Tests (nur vereinzelt Schulleistungsprüfungen, die auf Kenntnis orientiert waren).
Tags: Geschichte, Testung, Trait-Modell
Quelle: S22
29
Kartenlink
0
Welche Strömungen bzw. 3 Vertreter setzten die entscheidenden Impulse bzw. grundlegenden Ideen für die Differentielle Psychologie (Überblick)?
Entscheidende Impulse aus
  • Biologie und
  • Genetik des 19.Jahrhunderts

Berühmte Forscher:
  • Charles Darwin (1809‐1882): Evolutionstheorie
  • Gregor Mendel (1822‐1881): Erbgesetze
  • Francis Galton (1822‐1911): Begründer der wiss. Untersuchung
  • individueller Differenzen
Tags: Geschichte
Quelle: VO03
30
Kartenlink
0
Welche Ideen kennzeichnen die Arbeit von Darwin? Und welche Anmerkungen dazu hatte Merz?
„On the origin of species by the means of natural selection“ (1859): Entwicklung der Arten durch natürliche Auslese (Selektion): Kampf um das Überleben der "Bestangepassten"
  • Evolutionstheorie, heute in ihren Grundsätzen allgemein anerkannt.
  • Individuelle Differenzen innerhalb einer Art sind eine notwendige Voraussetzung für Selektion und Evolution (stammesgeschichtliche Entwicklung von niederen zu höheren Formen).
  • In seiner Auffassung über die Entstehung der Arten widersprach Darwin dem bis dahin geltenden aristotelischen Artenbegriff -
  • Aristoteles: Die wesentlichen Merkmale eines Indiv. sind durch Artmerkmale bestimmt, Abweichungen davon nur zufällig (- Unveränderlichkeit der Art).

Merz (1984):
  • Variationsvielfalt im Phänotyp macht es auch bei einem raschem Wechsel der Lebensbedingungen wahrscheinlich, dass einige Artgenossen an neue Lebensumstände besser „angepasst“ sind, da sie bereits teilweise über die nötige Eigenschaftsausstattung verfügen.
  • Sofern die phänotypischen Variationen genetisch (mit)bedingt sind, werden die Nachkommen besser angepasster Individuen aus dem begünstigten Genotyp ihrer Eltern Selektionsvorteile (Überlebens‐ und Fortpflanzungsvorteile) ziehen.
  • Umgekehrt ist eine Art in ihrem Fortbestand um so gefährdeter, je ähnlicher (homogener) die Individuen in körperlichen und Verhaltensmerkmalen sind.
Tags: Darwin, Evolution, Geschichte
Quelle: S23, VO03
31
Kartenlink
0
Was erforschte Gregor Mendel?
Gregor Mendel (Augustinermönch):
  • Überwand durch seine empirische Erkenntnisse (Kreuzungsversuche mit Pflanzen) die Vorstellung von einer „gottgewollten Entwicklung“ hin zu bestimmten Arten als Entwicklungsziel.
  • Erklärte die angeborene Eigenart des Individuums kausal durch die zufällige Kombination von Erbanlagen (damit war ein Teil der von Darwin offengelassenen Wirkungsfaktoren spezifiziert).
  • Mendels Gesetzte blieben unbeachtet, bis sie durch Correl, Tschermak und deVries um 1900 wiederentdeckt wurden.
  • Folge: Intensive Erforschung der Erblichkeit von körperlichen und psychologischen Merkmalen, Konzept‐ und Modellentwicklungen, die auch heute noch Untersuchungsgegenstand sind.
Tags: Geschichte, Mendel
Quelle: S23
32
Kartenlink
0
Was erforschte Sir Francis Galton?
geb. 1822, Vetter Darwins, vielseitiger Wissenschaftler: Biologe, Geograph, Statistiker, Meterologe

Einer der Begründer der wiss. Untersuchung indiv. Differenzen
  • Individualität des Fingerabdrucks
  • Bestimmung des Aussehens eines „typischen“ Engländers oder Kriminellen (durch Übereinanderprojektion mehrerer Fotos)
  • erkannte die Zwillingsmethode als den Untersuchungsansatz, um Erb‐ und Umweltfaktoren zu entflechten
  • Übertrug Gedanken der Erblichkeit von physischen auf psychische Merkmale (bes. Intelligenz)
  • Publizierte „Hereditary Genius“ (1869), in dem mittels Stammbaummethode die Ballung spezifischer Begabungen in Familien aufgezeigt wurden
  • Formulierte einen „Index of Correlation“, der von seinem Schüler Karl Pearson zum Korrelationskoeffizienten weiterentwickelt wurde
  • Verwendete erstmals den Begriff des Tests und testete „Intelligenz“ in einem anthropometrischen Laboratorium
  • Galton erkannte, dass differenzierte Daten über Begabungsunterschiede nur durch objektive Messungen an einer Vielzahl von Personen gewonnen werden können
  • Versuche zur Intelligenzmessung:
  • - wesentliche Intelligenzgrundlage sei die Verarbeitung vonWahrnehmungsreizen (Testmaße daher Seh‐ und Hörschärfe, Tiefensehen, Reaktionszeiten, etc.)
  • Parallelen zum Philosophen John Locke (Sensualismus):
  • - Ein neugeborenes Kind gleicht zunächst einer „tabula rasa“- Erst die Sinneseindrücke im Laufe der Entwicklung liefern die Grundlage für komplexe psychische Prozesse wie Denken und Urteilen

Zitat von Galton: (1983):
„Die einzige Information über äußere Ereignisse, die uns erreicht, scheint den Weg über unsere Sinne zu nehmen; je empfänglicher die Sinne für Unterschiede sind, desto größer ist die Grundlage, auf der unser Urteilsvermögen und unsere Intelligenz agieren können.“
Tags: Darwin, Galton, Intelligenz, Korrelation, Test, Zwillingsmethode
Quelle: S24, VO03
33
Kartenlink
0
Wie entwickelte sich die Intelligenzmessung nach Galton?
Galtons Intelligenzmessung wurden von James McKeen Cattell (1860‐1944) fortgeführt

Cattell: Begründer der Testpsychologie in den USA erhielt 1888 die weltweit 1. Professur für (ausschließlich) Psychologie
  • prüfte auf Unterscheidung von visuellen, auditiven, taktilen Eindrücken; Schmerzschwellen usw.
  • dieser Zugang war eine Sackgasse : Es fehlten Korrelationen der betreffenden Tests untereinander (Wissler, 1901: r zwischen ‐.28 und .39, mittlerer Wert .09) sowie mit externen Kriterien (z.B. schulische Leistungen, Lehrerurteile, Erfolg im Studium)
  • Leistungsfähigkeit der Sinnesorgane nicht unmittelbar geeignet, um Intelligenz zu messen


Galtons theoretisch‐statistische Arbeiten wurden auch von Charles Spearman (1863‐1954) weitergeführt:
  • erstes quantitatives Modell der Struktur menschlicher Intelligenz: „2‐Faktoren‐Theorie“ (Grundlage der Faktorenanalyse)
Tags: Cattell, Galton, Intelligenz, Spearman, Test
Quelle: S24, VO03
34
Kartenlink
0
Was waren die wichtigsten Ideen und Entwicklungen von William Stern?
Louis William Stern; geb. 1871, gest. 1938
  • Studium der Philosophie & Psychologie in Berlin (bei Ebbinghaus), Habilitation 1897 an der Uni Bresslau
  •   1900: "Über die Psychologie der individuellen Differenzen (Ideen zu einer differentiellen Psychologie)"
  • Neu war dabei nicht die Beschäftigung mit individuellen Unterschieden, sondern die differentialpsychologische Forschung systematisch zu entwickeln.
  • 1911: "Die differentielle Psychologie in ihren methodischen Grundlagen"
  • - Grundlegung der Differentielle Psychologie als wissenschaftliche Disziplin- setzte sich mit dem (scheinbaren) Gegensatz zwischen nomothetischer und idiographischer Betrachtung seelischer Vorgänge auseinander
  • aber 1916:
  • - Professur in Hamburg- Werke zur Intelligenzdiagnostik (Erfinder des IQ),- Kinder- und Entwicklungspsychologie,- Pädagogische, Arbeits- und Forensische Psychologie und - Allgemeinen Psychologie
  • 1933: Entlassung aus dem Professorenstand, Emigration in die USA


War seiner Zeit in vielen Punkten vorraus:
  • Gegenüberstellung von interindividuell variierenden psychischen Eigenschaften (traits) und intrainidividuell variierenden Zustandsmerkmalen (states)
  • Betonung der Wichtigkeit der methodisch-statistischen Fundierung (1911)
  • Bedeutung von Längsschnittstudien für die differential-psychologische Prozessforschung erkannt.
  • Differentielle Psychologie für Stern sowohl eine theoretische als auch eine angewandte Wissenschaft.

Sterns Systematik (theoretisch-methodische Zugänge) in der differentiellen Psychologie hat bis heute Gültigkeit.
Tags: differentielle Psychologie, Stern, Test, Trait-Modell
Quelle: S25
35
Kartenlink
0
Was sind für Stern die zwei Hauptziele der Differentialpsychologie als angewandte Wissenschaft?
  1. Psychodiagnostik
  2. Menschenkenntnis / heute: psychologische Diagnostik, Psychodiagnostik
  3. Psychotechnik
  4. Menschenbehandlung / heute: psychologische InterventionDer Begriff Psychotechnik ist später nur auf arbeitspsychologische Fragestellungen eingeschränkt worden (z.B. Fragen der Arbeitsplatzgestaltung).
Tags: differentielle Psychologie, Stern
Quelle: S26
36
Kartenlink
0
Wer und wie wurde die individuelle Testskala entwickelt?
  • Alfred Binet (1857‐1911): Direktor des psycho‐physiologischen Instituts der Pariser Sorbonne
  • Ihm fiel die geringe Zuverlässigkeit (Reliabilität) der ärztlichen
  • „Schwachsinnsdiagnosten“ auf - dasselbe Kind wurde im Abstand weniger Tage in verschiedenen Kliniken völlig unterschiedlich beurteilt
  • Abkehr von anthropometrischen Maßen Galtons
  • Binet legte gemeinsam mit dem Arzt Théophile Simon 1905 erste kognitiv orientierte Intelligenzskala vor.

Skalenkonstruktion: Items wurden systematisch ausgewählt hinsichtlich aufsteigender Schwierigkeit.
– Ein Item galt als alterssensitiv, wenn es von 50–75% der Kinder eines Jahrgangs gelöst wurde (Eichung)
– entwickelten 5 Items pro Altersstufe der 3‐15 Jährigen
Um das „Intelligenzalter“ eines Kindes zu bestimmen, wurde wie folgt vorgegangen: Ausgehend vom Alter des Kindes wurde
  • „nach unten“ getestet, bis alle 5 Aufgaben einer Altersstufe gelöst (+).
  • „nach oben“ getestet, bis alle Aufgaben einer Altersstufe nicht gelöst (‐).
  • Bestimmung des Intelligenzalters (IA): Grundalter ist Mitte jenes Jahres, dessen sämtliche Aufgaben „+“
  • Jede zusätzliche Itemlösung bringt Zuwachs von 1/5 eine Jahres


Vgl. Testprotokoll: IA = 7,5 + 7/5 = 8,9 Jahre ist rund 107 Monate
Differenz aus IA – LA (Lebensalter) liefert Wert dafür, ob Kind bezüglich seines Entwicklungsstands der Altersgruppe entspricht.
Tags: Binet, differentielle Psychologie, Intelligenz, Intelligenzquotient, Skala, Test
Quelle: S27
37
Kartenlink
0
Welche Inhalte werden bei Binets Items untersucht?
Gedächtnis, Vorstellungskraft, Aufmerksamkeit, Verständnis, Willensstärke, motorische Fertigkeiten, moralische Haltungen

Beispiel: Aufgaben für das 8. LJ
  • Kind erklärt Unterschied zwischen 2 Gegenständen des Alltags aus dem Gedächtnis
  • Kind zählt rückwärts von 20 bis Null
  • Kind bemerkt Auslassung in einem unvollständigen Bild.
  • Kind benennt vier Farben.
  • Kind liest eine Textpassage und erinnert sich an Details

Binet war Pionier bei der Verwendung von Bildern als Items (Frage an das Kind: Zeige auf das Fenster, die Mutter, die große Schwester, die Katze, …)
Tags: Binet, Intelligenz
Quelle: S27
38
Kartenlink
0
Was ist die Kritik am Simon-Binet Test?
Probleme und Kritik am Binet‐Simon Test (auch: Staffel‐Test‐Konzept)
  • Auffinden von trennscharfen Aufgaben für höhere Altersstufen (ab 16) scheiterte, weil
  • - Intelligenzentwicklung den Verlauf einer negativ beschleunigten Wachstumskurve zeigt: zunächst rasch, dann immer langsamer.
  • Gleiche Differenz zwischen IA und LA kann verschiedenes bedeuten:
  • - z.B. Rückstand von IA‐LA= 2 Einheiten kann bei 10‐jährigem Kind unauffällig sein- bei 4‐jährigem Kind: hochgradiger Entwicklungsrückstand
  • Eichung mangelhaft: Oberschichtkinder lagen durchschnittlich 18 Monate über Binet‐Normen
  • Testitems zu verbal (- schichtabhängig?)
  • Objektivität ungenügend: Testleiterbewertungen fließen ein
Tags: Intelligenz, Intelligenzquotient, Simon-Binet-Test
Quelle: S27
39
Kartenlink
0
Was kennzeichnet das erste IQ-Konzept von W. Stern?
  • Stern schlug Intelligenzquotienten vor, um eine Konstanz der Interpretierbarkeit von Leistungsvorsprüngen bzw. Leistungsrückständen auf verschiedenen Altersstufen zu gewährleisten: IQ = (IA / LA) * 100
  • Stern IQ nur dann legitim, wenn Leistung mit dem Alter linear wachsen
  • Tatsächlich besteht ein negativ beschleunigter Entwicklungsverlauf (Scheitelpunkt bei ca. 20-25 Jahren)
  • - Probleme bei Testung Erwachsener, da   - Die „Stauchung“ bzw. der Stillstand der IQ-Werte bei zunehmendem Alter zu grotesk niedrigen IQWerten älterer Personen führte (artifizielle Korrekturen wurden vorgenommen, die nicht befriedigten).   - Keine zwischen höheren Altersgruppen differenzierenden Aufgaben vorhanden


Dennoch wurde IQ-Begriff außerordentlich rasch populär und ist es – wegen seiner intuitiven Anschaulichkeit – bis heute.

Bei den bisher erwähnten Tests handelt es sich um sog. Individual‐Tests, d.h. es konnte nur eine Testperson untersucht werden (erfahrene TestleiterIn war notwendig)
Durch Eintritt der USA in den 1. Weltkrieg (1917) ergab sich Erfordernis, viele hunderttausend Rekruten zu testen - sog. Screening‐Verfahren, Gruppen Tests (Army-Alpha-Test, Army-Beta-Test)
Tags: Binet, Intelligenz, Intelligenzquotient, Test
Quelle: VO03
40
Kartenlink
0
Was ist der Army-Alpha-Test bzw. der Army-Beta-Test?
Bei den bisher erwähnten Tests (Binet, Stern) handelt es sich um sog. Individual‐Tests, d.h. es konnte nur eine Testperson untersucht werden (erfahrene TestleiterIn war notwendig)
Durch Eintritt der USA in den 1. Weltkrieg (1917) ergab sich Erfordernis, viele hunderttausend Rekruten zu testen
- sog. Screening‐Verfahren zur Grobklassifizierung, um sie z.B. zu verschiedenen Waffengattungen „punktgenau“ zuzuordnen.

Erste Gruppen-Tests:
Army-Alpha-Test und der sprachfreie Army-Beta-Test für Analphabeten und nicht Englisch sprechende Testpersonen
  • Diese Tests konnten simultan einer großen Zahl von Probanden vorgegeben werden und waren ökonomisch in Herstellung und Auswertung
  • Derartige Testentwicklungen ermöglichten erstmals empirisch-differentialpsychologische Forschung in großem Stil
Tags: Army-Alpha-Test, Test
Quelle: S31
41
Kartenlink
0
Was ist die Kritik am IQ-Konzept?
Was sind Probleme beim Binet-Test und Stern-IQ bei der Testung Erwachsener?
IQ ist nur ein sehr grobes Globalmaß der Intelligenz, das bei den meisten diagnostischen Fragestellungen nicht ausreichen wird.
Vielfach ist auch die Kompensationsmöglichkeit schlechter Subtestleistungen durch gute Subtestleistungen unerwünscht, weil ja gerade darin die Leistungsstärke bzw. -schwächen in Teilbereichen der Intelligenz zum Ausdruck kommen.
Dies zu kennen, ist für potentielle Interventionsmaßnahmen von entscheidender Bedeutung - Intelligenz soll mehrdimensional betrachtet werden (Struktur der Intelligenz), um feine Differenzierungen zu erkennen.

Probleme beim Binet-Test und Stern-IQ bei der Testung Erwachsener?
  • negativ beschleunigter Entwicklungsverlauf intellektueller Leistungen,
  • Scheitelpunkt bei ca. 20-25 Jahren
  • keine Aufgaben auffindbar, die zw. höheren Altersgruppen differenzieren.
Tags: Binet, Intelligenz, Intelligenzquotient, Stern
Quelle: S30
42
Kartenlink
0
Was ist der "Abweichungs-IQ"? Wie wird dieser berechnet?
AIQ von Wechsler

David Wechsler (1939) schlug einen anderen Weg ein bei Konstruktion von klinisch motivierten Intelligenzskalen:
  • Keine altersspezifischen Aufgaben, sondern Items, die für (beinahe) alle Altersgruppen eingesetzt werden konnten (- großer Schwierigkeitsrange der Items)
  • Das Intelligenzmaß war der AIQ


Der Mittelwert M ist auf 100 und die Standardabweichung s auf 15 festgelegt.
  • Diese Konvention dient zur Vergleichbarkeit mit älteren IQ-Werten (andere Autoren normieren z.B. auf M=100, s=10)
  • - Obwohl von einem „Intelligenz-Quotienten“ gesprochen wird, ist der AIQ faktisch ein Standardwert.
  • Verwendung solcher Normierungsverfahren ist derzeit allgemein üblich (Normierung ist aufwendig und sollte ca. alle 10-15 J. neu durchgeführt werden)

Da IQ von vielen Faktoren (genetischen, umweltbedingten) abhängt, folgt aus dem Zentralen Grenzwertsatz (= Theorem d. mathem. Statistik), dass IQ annähernd normalverteilt ist.
Bei Kenntnis von x und s der NV kann für jeden individuellen IQ sofort angegeben werden, wie viel Prozent in der Population gleich gut oder schlechter/besser abschnitten.


Wechsler war Chefpsychologe am Bellevue-Hospital (NY) - Seine Tests haben sich neben dem Binet-Test weltweit am meisten verbreitet:
- WAIS (Wechsler Adult Intelligence Scale)/ WISC (... for Children)
- HAWIE (Hamburg Wechsler‐Intell.‐Test für Erwachsene) /HAWIK (... für Kinder)
Tags: Intelligenz, Intelligenzquotient, Wechsler
Quelle: S28
43
Kartenlink
0
Was ist die "Normalverteilung"?
auch: NV, Gaußsche Glockenkurve

Viele "in der Natur gegebenen" Merkmale (z.B. Körpergröße innerhalb einer Geschlechtergruppe) sind in der Population in Form einer sog. Glockenkurve verteilt: D.h. viele Werte liegen in der Nähe des Mittelwerts, nur wenige Werte liegen sehr weit von diesem entfernt.
Eine NV ist eingipfelig und symmetrisch. Nur wenn Messwerte normalverteilt sind, macht streng genommen die Berechnung des Mittelwerts und der Varianz Sinn.

Im Bild: verschiedene NV mit unterschiedlichen (=Populationsmittelwert) und (=Standardabweichung in der Population).
Beachte: Es gibt viele verschiedene NV, aber nur eine Standardnormalverteilung.
Tags: Definition, Normalverteilung
Quelle: S29
44
Kartenlink
0
Was sind Beispiel für Intelligenzaufgaben zu Schlussfolgerndem Denken (Reasoning)?
WMT (Rasch-homogen; modifiziertes Item)
Formann, A. K. & Piswanger, K. (1979). WMT ‐ Wiener Matrizen‐Test. Ein Rasch‐skalierter sprachfreier Intelligenztest. Weinheim: Beltz Test.

Raven: Progressive Matrizen Test
Raven‐Matrizen‐Test (Standard Progressive Matrices, SPM). Deutsche Bearbeitung: H. Kratzmeier und R. Horn (1979). Weinheim: Beltz Test.

ISA: Figuren zusammensetzen
ITB Institut für Test‐ und Begabungsforschung GmbH (Geschäftsführer Dr. E. Fay, Dr. G. Trost), Bonn, sowie Prof. Dr. G. Gittler, Institut für Psychologie der Universität Wien. (1998). Intelligenz‐Struktur‐Analyse ISA. Frankfurt: Swets & Zeitlinger.

I-S-T 200R Würfelaufgaben
Liepmann, D., Beauducel, A., Brocke, B., & Amthauer, R. (2007). Intelligenzstrukturtest 2000 R (2., erweiterte und überarbeitete Auflage). Göttingen: Hogrefe.

LPS
Horn, W. (1983). Leistungsprüfsystem (LPS). Göttingen: Hogrefe.
Tags: Intelligenz
Quelle: VO03
45
Kartenlink
0
Was sind Beispiele für Intelligenzaufgaben zu a) verbaler Intelligenz und b) Merkfähigkeit?
a) I‐S‐T 200R
Liepmann, D., Beauducel, A., Brocke, B., & Amthauer, R. (2007). Intelligenzstrukturtest 2000 R (2., erweiterte und überarbeitete Auflage). Göttingen: Hogrefe.

Analogien
Wald: Bäume = Wiese: ?
a) Gräser b) Heu c) Grün e) Weide
Satzergänzungen
Ein Kaninchen hat am meisten Ähnlichkeit mit einem (einer) …?
a) Katze b) Eichhörnchen c) Hasen d) Fuchs e) Igel
Gemeinsamkeiten
a) Messer b) Butter c) Zeitung d) Brot e) Zigarrre f) Armband

b) WIT Gedächtnistest
Jäger, A. O & Althoff, K. (1983). Der WILDE‐Intelligenz‐Tests (WIT). Ein Strukturdiagnostikum. Herausgegeben von der Deutschen Gesellschaft für Personalwesen e. V. Göttingen: Hogrefe
Tags: Intelligenz, Test
Quelle: VO03
46
Kartenlink
0
Was kennzeichnet ein Experiment? Wie ist der Ablauf eines Experiments?
Was ist ein Quasi-Experiment?
Experiment:
  • Studium von Phänomenen (abhängige Variable, AV; z.B. Konzentrationsleistung) unter kontrollierten Bedingungen, wobei die Untersuchungseinheit (meist Vpn) den unabhängigen Variablen (UV = Versuchsbedingungen oder Treatments; z.B.
  • verschiedene Abstufungen von Lärmbelastung) randomisiert (= zufällig) zugewiesen werden.
  • Bedeutung: Nur nach Durchführung eines Experiments ist eine kausale Ergebnisinterpretation möglich.


Quasi‐Experiment:
  • Studium von Phänomenen (AV) unter kontrollierten Bedingungen, wobei die Untersuchungseinheiten (Vpn) den UV nicht randomisiert zugewiesen werden (können), sondern die UV eine Auswahl aus „vorgegebenen Gruppenzugehörigkeiten“
  • darstellen (z.B. Patientengruppen mit unterschiedlicherDiagnose, Geschlecht etc. - Subjektvariable).
  • Nach Durchführung eines Quasi‐Experiments ist keine Kausalinterpretation der Ergebnisse möglich.
Tags: Experiment, Methoden
Quelle: S31, VO04
47
Kartenlink
0
Was versteht man unter Varianz?
Die Varianz (s²) ist ein Maß für die Verschiedenheit (Variabilität) von Messwerten eines Merkmals in einer Stichprobe.
s² wird umso größer, je mehr die Messwerte vom gemeinsamen Mittelwert abweichen, also je unterschiedlicher die Messwerte sind.

s² = „mittleres Abweichungsquadrat“ (Varianz)
Wurzel aus s² = Standardabweichung (s)

n = Stichprobenumfang
i = Laufindex (i = 1, 2, …, i, … n)
xi = Messwerte
x quer = Mittelwert (Durchschnitt)
Tags: Methoden, Varianz
Quelle: S32
48
Kartenlink
0
Was versteht man unter Korrelation?
Pearson Korrelation: Der Korrelationskoeffizient r ist ein Maß für die Stärke eines linearen Zusammenhangs zwischen 2 Variablen (X und Y).


Zähler: „mittleres Abweichungsprodukt“ (Kovarianz, Cov)
Nenner: Produkt der Standardabweichungen
Es gilt: ‐1 r   +1 und 0   |r| 1

Also: Maximaler (linearer) Zusammenhang bei r = +1 (gleichsinnig) und r = -1 (gegenläufig);
bei r=0 kein Zusammenhang

Beachte:
nicht‐lineare Zusammenhänge (siehe Abb.) werden durch r nicht adäquat abgebildet
Tags: Korrelation, Methoden
Quelle: S32
49
Kartenlink
0
Was ist bei der Interpretation einer Korrelation zu beachten?
Eine dem Betrag nach hohe (signifikante) Korrelation darf nicht kausal (d.h. im Sinne einer „wenn – dann“ Beziehung) interpretiert werden, weil unklar ist was zutrifft:
(1) X beeinflusst Y kausal,
(2) Y beeinflusst X kausal,
(3) X und Y werden von einer dritten oder mehreren weiteren Variablen kausal beeinflusst,
(4) X und Y beeinflussen sich wechselseitig kausal.


Bortz (1989, S.288):
Eine Korrelation zwischen zwei Variablen ist eine notwendige, aber keine hinreichende Voraussetzung für kausale Abhängigkeiten.
Korrelationen sind deshalb nur als Koinzidenzen zu interpretieren; sie liefern jedoch Hinweise für mögliche kausale Beziehungen, die dann in sorgfältig kontrollierten Experimenten überprüft werden können.

Bei einer korrelationsstatistischen Überprüfung von Zusammenhangshypothsen ist es besonders wichtig, dass die Stichprobe tatsächlich die gesamte Population repräsentiert, für die das Untersuchungsergebnis gelten soll. Ist das nicht der Fall, kann es zu drastischen Verzerrungen der Korelation kommen und damit zu falschen Schlussfolgerungen (Korrelationen sind "stichprobenabhängig").

Beispiel: „wahre“ Korrelation zwischen Schulleistung und Intelligenz (bzw. IQ) beträgt in der Population alles Schüler ρ (sprich: „rho“) = 0.71 [griechischer Buchstabe für Populationsschätzer]
Die Abbildungen zeigen, wie sich dieser "wahre" Zusammenhang bei Stichprobenselektion ändern kann:
Tags: Korrelation, Methoden
Quelle: S32
50
Kartenlink
0
Was ist das Prinzip der Varianzzerlegung?
Prinzip ist interessant, weil es zeigt, wie in der Differentiellen Psychologie Kausalzusammenhänge untersucht werden können.

Zentrale Frage: Welcher Anteil der Gesamtvarianz eines
Phänomens wird durch die Varianzen der einzelnen an ihm
beteiligten Komponenten „erklärt“ - Bestimmung von
Varianzanteilen
.

Dazu ein Beispiel (Hofstätter, 1977)
Weitere Komponenten (z.B. Knochenstärke) bleiben aus Vereinfachungsgründen hier unberücksichtigt.

Die Gesamtvarianz s² (kg) ist (unter Annahme, dass kh und kf unabhängig voneinander variieren) in zwei additive Komponenten (Varianzanteile) zerlegbar:
s²(kg) = s²(kg|kf) + s²(kg|kh)
100% = X% + Y%

s²(kg|kf) = Varianz des Gewichts aufgrund der Körperfülle.

Ergebnis könnte lauten:
48% von s²(kg) sind durch Körperhöhe “bedingt”,
52% durch Körperfülle (und andere Komponenten)

Analog dazu können Anlage‐ und Umweltvarianzanteile an der Gesamtvarianz eines Merkmals „M“ geschätzt werden:
s²(M) = s²(M|A) + s²(M|U)  (Zwillingsforschung)
(Voraussetzungen: Kein Zusammenhang zwischen den beiden Varianzanteilen [d.h. r(A, U) = 0] und fehlerfreie Erfassung des Merkmals „M“.)
Tags: Methoden, Varianz, Varianzzerlegung, Zwillingsmethode
Quelle: S34
51
Kartenlink
0
Was ist der Regressionseffekt?
"Regression zur Mitte", erstmals 1886 von Galton beschrieben
(Hier ist mit dem Wort Regression der "Rückschritt" gemeint, nicht die statistische Vorhersage)

Die Kenntniss diese Effekts ist dehalb wichtig, um Planungsfehler bei der Stichprobenauswahl bzw. -zusammensetzung in psychologischen Experimenten zu vermeiden.

Den Regressioneseffekt beschrieb Galton erstmals bei der Vererbung von Intelligenz:
Die Söhne hochintelligenter Väter sind im Gruppendurchschnitt ebenfalls hochintelligent, aber nicht im selben Ausmaß wie ihre Väter, sonder in einem geringeren. Die guten „Bedingungen“ in der Extremgruppe der Parentalgeneration sind mit höherer Wahrscheinlichkeit in der Filialgeneration nicht gegeben (vgl. Abb.).
Es lässt sich sagen: Die mangelnde Zuverlässigkeit (Reliabilität) von Messinstrumenten ebenso wie die höhere Wahrscheinlichkeit mittelmäßiger „Rahmenbedingungen“ im Vergleich zu besonders guten bzw. schlechten lassen extreme Messwerte, bei wiederholter Erfassung, zur "größten Dichte der Merkmalsverteilung" (bei Normalverteilung also zum Mittelwert) regredieren. Dieses Artefakt wird als Regression zur Mitte bzw. Regressionseffekt bezeichnet.


Beachte: Regression zur Mitte bedeutet nicht, dass die Streuung des Merkmals kleiner wird, weil ja nicht alle Messwerte zum Mittelwert tendieren; einige mittlere Werte tendieren sogar in die Extrembereiche, d.h. es findet letztlich nur ein Austausch zwischen extremen und mittleren Positionen statt.
Da die Varianz ein quadratisches Streuungsmaß ist, kann eine Messwertänderung in Richtung Extremposition mehrere Änderungen zur Mitte „aufwiegen“.
Tags: Galton, Regression
Quelle: S36
52
Kartenlink
0
Welche Konsequenzen haben Regressionseffekte für quasiexperimentelle Untersuchungen zur Prüfung von Veränderungshypothesen?
Beispiel - Fragestellung: Wie wirkt ein Programm zur kognitiven Frühförderung bei Oberschichtkindern (OKi) bzw. bei Unterschichtkindern (UKi)?
Hilft es beiden Gruppen in gleicher Weise?
Untersuchungsdesign: Pretest (Vortests) - Fördermaßnahme - Posttest.
Annahme: Das Merkmal „kognitive Fähigkeit“ sei in der Population der OKi und in der Population der UKi normalverteilt.
Messung des Merkmals: Zweimalige Durchführung eines Tests (Paralleltestversionen). Die Reliabilität der Tests ist nicht vollkommen (wie in Psychologie üblich).

Studie 1: Interpretation korrekt! (links)
  • 2 Zufallsstichproben aus Populationen gezogen
  • Vortestergebnis (t1): kognitive Fähigkeit bei OKi weiter entwickelt ist als bei UKi.
  • Posttestergebnis (t2): keine sign. Änderungen (weder bei OKi noch bei UKi) - Förderprogramm hat keine Wirkung.
  • Interpretation korrekt, weil Regressionseffekte hier ausgeschlossen sind (repräsentative Stichproben).

Studie 2: Interpretation falsch! (rechts)
  • OKi und UKi werden anhand von Vortestergebnissen
  • parallelisiert - Mittelwerte von OKi und UKi zu t1 annähernd gleich.
  • Parallelisierung führt jedoch dazu, dass aus Oberschicht überwiegend unterdurchschnittliche Kinder in Stichprobe aufgenommen werden, aus Unterschicht überwiegend
  • überdurchschnittliche.
  • Wieder sei das Förderprogramm wirkungslos.
  • Dennoch zu t2 ein Unterschied, weil beide Stichproben zum Mittelwert ihrer Referenzpopulation hin regredieren.

Tags: Methoden, Quasi-Experiment, Regression
Quelle: S37
53
Kartenlink
0
Erkläre anhand eines Gedankenexperiments die Idee der Faktorenanalyse?
Datenerhebung an n Vpn mit k = 5 Messinstrumenten (Variable):
  • 3 Thermometer (mit verschiedenen Skalen: Kelvin, Fahrenheit, Celsius)
  • 2 Pulsmessungen (durch Arzt / mittels Pulsmessgerät)

Beobachtung in der Interkorrelationsmatrix (k x k): 3 Variable (Thermometer) sind hoch korreliert (|r| → 1.0), ebenso die beiden anderen (Puls). Zwischen Variablen, entnommen aus jeweils einer Variablengruppe, liegen jedoch nur niedrige Korrelationen vor (|r| → 0.0).
FA wird durchgeführt; Fragestellung: Wie viele unabhängige Faktoren (Dimensionen, Eigenschaften, Konstrukte) sind (minimal) notwendig, um die Zusammenhänge in den fünf Variablen zu „erklären“?

Ergebnis (Gedankenexperiment): Die Daten können durch 2 Faktoren „erklärt“ werden.
Auf 1. Faktor „laden“ 3 Variable (Thermometer) hoch [d.h. sind mit dem Faktor hoch korreliert], auf 2. Faktor laden die Pulsmessungen hoch.

Allgemein: m Faktoren, wobei m < k - FA dient der Informationsverdichtung!

Interpretation: Die fünf Messinstrumente messen nur 2 unabhängige Dimensionen (Eigenschaften, Faktoren). Drei etablieren den 1. Faktor, zwei den 2. Faktor. Weil wir wissen, was die Messinstrumente messen ist hier die inhaltliche Interpretation leicht - Körpertemperatur (Fakt.1) und
Herzschläge/min (Fakt.2).

Folgerung: Zukünftig wird es nicht mehr notwendig sein, alle fünf Messinstrumente zu verwenden; eines für Faktor 1 und ein zweites für Faktor 2 werden genügen. (Stichworte: Datenverdichtung und Datenreduktion als Ziel der FA)

Beachte: Hätten wir ein Hygrometer hinzugenommen, wäre ein dritter Faktor (Luftfeuchtigkeit) resultiert. - Es können also nur jene Eigenschaften faktorenanalytisch gewonnen (=extrahiert) werden, die in den in den Analysen aufgenommenen Variablen enthalten sind.
Tags: Faktorenanalyse, Methoden
Quelle: S38
54
Kartenlink
0
Was ist die Ziel bzw. die Idee der Faktorenanalyse?
Die Faktorenanalyse (FA) ist ein Verfahren zur Informationsverdichtung (wissenschaftliche Ökonomisierung) mit dem Ziel, die, einem Variablensatz (= manifeste Variable) zugrunde liegende Dimensionen (=latente Variable bzw. Konstrukte, Faktoren, Eigenschaften) rechnerisch zu ermitteln.

Ausgangspunkt sind die standardisierten Variablen und deren Interkorrelationen (Korrelationen zwischen allen Paaren von Variablen). FA versucht die (linearen) Zusammenhänge (Interkorrelationen), die zwischen Variablen bestehen, einfacher zu erklären, indem diese Zusammenhänge auf wenige gemeinsame Faktoren zurückgeführt werden.
Tags: Faktorenanalyse, Methoden
Quelle: S38
55
Kartenlink
0
Wie ist die Vorgehensweise bei der Faktorenanalyse?

Standardisierung der Ausgangsdaten
Variable, die in FA eingehen, haben unterschiedlich große Varianzen s² bzw. ² (Populationsschätzer).
Da für die k Variable Varianzanteile bestimmt werden sollen, die sich durch m gemeinsame Faktoren erklären lassen, müssen zunächst die s2 „vereinheitlicht“ werden.
Das geschieht ohne Informationsverlust (Korrelationen sind invariant gegenüber linearer Messwerttransformation) durch Standardisierung jeder Variable:

Korrelationsmatrix
Die Korrelationen zwischen je zwei standardisierten Variablen seien durch „Überlappungsbereiche“ dargestellt:

Für jede Variable ergibt sich ein „Geflecht“ von Überlappungen und jeweils einem variablespezifischen, eigenständigen Bereich („uniqueness“).
FA soll dieses „Geflecht“ einfacher strukturieren, also „Gemeinsames“ von „Speziellem“ trennen.
Die Faktoren werden üblicherweise so bestimmt, dass sie miteinander nicht korreliert sind (= „orthogonale“ Faktoren).
Der 1. Faktor soll größtmögliche Überlappungen aller Variablen „umfassen“, dann 2. Faktor … usw.

Beispiel für zwei Variable:

Diesen Varianzanteilen entsprechen sog. Ladungszahlen
aij² = Varianzanteil des j‐ten Faktors an Variable Xi ; oder Ausmaß, in dem die Variable Xi mit dem latenten Faktor Fj zusammenhängt). [aij² - zu interpretieren wie Korrelationen mit Werten zwischen ‐1 und +1]

Ziel ist die Berechnung der Faktorenladungsmatrix (k Var., m Fakt., mit m < k):
Aus den der Größe nach geordneten Ladungszahlen kann auf die inhaltliche Interpretation des jeweiligen Faktors rückgeschlossen werden.
Überlegung: Werden genau so viele Faktoren „extrahiert“ wie Variable einbezogen wurden, dann kann zwar 100% der „Gesamtvarianz“ (= k) durch die Faktoren erklärt werden, aber eine Informationsverdichtung hat nicht stattgefunden (daher Forderung: m < k).
Methode = Extremwertaufgabe mit der Idee, dass möglichst
wenige Faktoren möglichst viel der Gesamtvarianz erklären
.
Lösung führt zu Eigenwertproblem, das in numerischer
Statistik bekannt ist (iteratives Vorgehen zur Schätzung
der Ladungen).
Tags: Faktorenanalyse, Methoden
Quelle: S40
56
Kartenlink
0
Was sind die Prinzipien der Faktorenanalyse?
Die m gemeinsamen Faktoren werden so bestimmt, dass …
  1. … der durch sie erklärte Varianzanteil maximal ist;
  2. … sie statistisch unkorreliert sind (orthogonal);
  3. … sie Einfachstruktur (simple structure) aufweisen, d.h. nach Rotation des Achstensystems, soll jeder Faktor in einigen Variablen hohe Ladungen und sonst vorwiegend Null‐Ladungen aufweisen - das dient der besseren Interpretierbarkeit: die Variablen mit hohen Ladungen (= Markervariablen) „beschreiben“ (determinieren) inhaltlich den Faktor
Tags: Faktorenanalyse, Methoden
Quelle: S40
57
Kartenlink
0
Was sollte das Modell der FA nicht auf die Daten angewandt werden?
Werden gleich viele Faktoren "extrahiert" wie Variablen in der Analyse aufgenommen wurden, dann kann zwar die "Gesamtvarianz" durch die Faktoren erklärt werden, aber eine Informationsverdichtung hat nicht stattgefunden.

Also ist zu fordern, dass die Anzahl der Faktoren (m) kleiner sein soll als die Anzahl der in die Analyse einbezogenen Variablen (k), also: m k.

Bei beispielsweise k=11 Variablen beträgt die Gesamtvarianz ²ges = k = 11, weil die Variablen standardisiert sind und jeweils ² = 1 beitragen. Diese Überlegung ist insofern interesant, als bei der Interpretation faktorenanalytischer Ergebnisse meist gesagt wird, wie viel Prozent der Gesamtvarianz durch die extrahierten Faktoren erklärt wird.
Ist dieser Prozentsatz erklärter Gesamtvarianz gering (Faustregel: z.B. kleiner als 60%), dann sollte das Modell der FA auf diese Daten besser nicht angewandt werden.
Tags: Faktorenanalyse, Methoden, Varianz
Quelle: S40
58
Kartenlink
0
Was ist das multiple FA-Modell?
von Garnett, 1919; weiterentwickelt von Thurstone, 1931, 1935

F1, F2, ... Fm - "common factors" (latente Eigenschaften)
Si - spezifische Faktoren des Tests Xi
i - Fehlerterm des Tests Xi

Die Ladungszahlen aij (bzw. deren Quadrat) können auf drei verschiedene Arten interpretiert werden:
  1. aij = Gewicht des Faktors Fj für die Variabe Xi
  2. aij = Korrelation des Faktors Fj mit der Variable Xi
  3. aij² = Varianzanteil der i-ten Variable, der durch den Faktor erklärt wird
Tags: Faktorenanalyse, Methoden
Quelle: S40
59
Kartenlink
0
Welche zwei Typen der Faktorenanalyse können unterschieden werden?
Exploratorisch (hypothesenerkundend)
Exploratorische FA soll latente Faktorenstruktur einer Menge korrelierender Variablen „erkunden“. Spezielles Vorwissen (z.B. zur Anzahl von Faktoren) besteht nicht. Das Vorgehen ist also deskriptiv.

Konfirmatorisch (hypothesenprüfend)
Konfirmatorische FA hat zum Ziel, eine apriori bestehende Faktorenstruktur (z.B. aus Literatur bekannt) auf Verträglichkeit mit neuen empirischen Daten zu prüfen.
Das Vorgehen ist Hypothesen geleitet, inferenzstatistische Schlussfolgerungen sind möglich.
Anmerkung: Auch die konfirmatorische FA sagt nichts darüber aus, ob eine gefundene Faktorenstruktur auch die einzige gültige Struktur darstellt.
Tags: Faktorenanalyse, Methoden
Quelle: S41
60
Kartenlink
0
Welche Arten von Faktorenmodellen gibt es?
  • Generalfaktorenmodell
  • Modell gemeinsamer bzw. multipler Faktoren
  • Gruppenfaktorenmodell
  • Faktoren zweiter bzw. höherer Ordnung

Tags: Faktorenanalyse, Faktorenmodell
Quelle: S41
61
Kartenlink
0
Was sind grundsätzliche Probleme bzw. Kritik an der Faktorenanalyse?
Stichprobenabhängigkeit der Ergebnisse (weil korrelationsbasiert):
  • homogene Stichproben führen zu größerer Faktorenzahl mit niedrigeren Ladungen
  • heterogene Stichproben führen zu geringerer Faktorenzahl mit höheren Ladungen

Variableneinbezug
  • Welche? (z.B. wenn Kreativität nicht in FA aufgenommen wird, kann sie auch nicht als Intelligenzfaktor resultieren)
  • Auf welchem Abstraktionsniveau: Test Score‐Niveau oder Einzelitem‐Niveau (in letzterem Fall müssen Items mit mehr als 2 Antwortmöglichkeiten gegeben sein).

Kein verbindliches Abbruchkriterium zur Faktorenextraktion
  • Wie viele Faktoren erklären die Daten am besten?
  • Es gibt zwar Kriterien zur Begrenzung der Faktorenzahl, diese können jedoch einander widersprechen.

Faktorenbenennung und –interpretation: Abhängig vom Versuchsleiter.

Rotationstechniken: Schiefwinkelig (nicht sehr gebräuchlich) vs. orthogonal.

Additiv kompensatorisches Modell: Diese Modellvorstellung kann – muss aber nicht – für die Daten passend sein. Die Güte der gefundenen Lösung ergibt sich aus der durch die Faktoren aufgeklärten Varianz (Richtwert: mind. 60%).

- Vielfache Interpretationsuneindeutigkeit faktorenanalytischer Lösungen!!
Tags: Faktorenanalyse, Kritik
Quelle: VO05
62
Kartenlink
0
Welche Probleme des Messens gibt es in Sozialwissenschaften? Wodurch kann das Problem tlw. überwunden werden?
Probleme des Messens latenter Eigenschaften:
  • Zu messende Eigenschaft (latente Dimension) ist unbekannt; sie wird postuliert (z.B. Intelligenz)
  • Unbekannt ist, welche Messinstrumente (Testaufgaben, Items) zur Erfassung der latenten Dimension geeignet sind
  • Schwierigkeitsgrade der Items sind unbekannt
  • Fähigkeitsgrade der Personen sind unbekannt
  • Bei Fähigkeitstest oftmals Beschränkung auf dichotome Items (gelöst / nicht gelöst)


Was und wie soll da noch "gemessen" werden ?
Die Item Response Theorie kann zwar nicht alle, aber zentrale Problem des Messens in den Sozialwissenschaften überwinden. IRT‐basierte Tests haben daher große Vorteile (hinsichtlich Präzision der Messung) gegenüber Klassische-Testtheorie‐basierten Testverfahren;
ihr Nachteil: sie sind viel aufwändiger zu entwickeln.
Tags: Item Response Theorie, Methoden
Quelle: S42
63
Kartenlink
0
Was sind die Gemeinsamkeiten bzw. Unterschiede zwischen KTT und IRT?
KTT = klassische Testtheorie (seit etwa 1920)
IRT = Item-Response Theorie (Anfänge seit 1960)

Gemeinsamkeiten: Beide Testtheorien gehen von der Annahmen einer latenten Dimension aus (Konstrukt, das gemessen werden soll).

Unterschiede der Testtheorien bezüglich Test‐(Skalen‐)konstruktion
Klassische Testtheorie Item Response Theorie
Ansatz bei Testrohwerten (=Anzahl gelöster Aufgaben): Die Frage, ob alle Testitems zur Erfassung der latenten Dimension geeignet sind, wird nicht thematisiert. Ansatz bei Einzelitems: Die Überprüfung, ob alle Items dieselbe latenten Dimension erfassen ist zentral und kann mit dem RM durchgeführt werden (d.h. Frage nach Eindimensionalität bzw. Homogenität der Testaufgaben ist empirisch prüfbar).
Beobachtbares Verhalten (d.h. die von Vpn erzielten Testscores od. Rohwerte) werden gleichgesetzt mit „Messung“ der latenten Dimension (deterministisch); das ist nachweislich oft nicht korrekt. Beobachtbares Verhalten (ob eine Vp ein einzelnes Item löst oder nicht löst) gilt nur als Symptom (Indikator) für die latenten Dimension (probabilistisch). Die Wahrscheinlichkeit, ein bestimmtes Items zu lösen, wird durch ein mathematisches Modell (z.B. Rasch Modell) spezifiziert.
Empirische Prüfbarkeit der Modellannahmen ist nicht möglich (Modelltests fehlen). Empirische Prüfbarkeit der Modellannahmen ist im möglich (mittels sog. Modelltests).
Tags: Item Response Theorie, Methoden, Test
Quelle: S42
64
Kartenlink
0
Welche Forderungen sind an das "objektive Messen" in den Sozialwissenschaften zu stellen?
  • Testunabhängige Fähigkeitsmaße (Personenparameter)
  • Die Messwerte (Fähigkeitsgrade) sollten nicht von dem Test (zufällig) verwendeten Items abhängen; denn eine Aussage über den Vergleich zweier Personen sollte unabhängig davon sein, welcher und wie viele Items dafür verwendet wurden, und zudem unabhängig davon, welche Person sonst noch getestet wurde.
  • Stichprobenunabhängige Itemschwierigkeitsmaße (Itemparameter)
  • Die Schwierigkeit von Testaufgaben sollte unabhängig von konkreten Stichproben (mit bestimmten Fähigkeitsverteilungen) quantifiziert werden können; Eine Aussage über den Vergleich zweier Items sollte unabhängig davon sein, welche und wie viele Personen dafür verwendet wurden, und welche Items sonst noch vorgelegt wurden.(Beispiel: Ein leichteres Item A und ein schwieriges Item B sollen diese Rangfolge [A kleiner als B] auch in anderen - etwas weniger begabten - Stichproben aufweisen.)

Die beiden Punkte entsprechen der Forderung von G. Rasch nach spezifischer Objektivität von Vergleichen und beinhaltet das Prinzip der sogenannten Stichprobenunabhängigkeit.
Tags: Item Response Theorie, Objektivität, Rasch-Modell
Quelle: S43
65
Kartenlink
0
Was sind die Grundannahmen des Rasch-Modells als Skalenkonstruktionsmethode?
  1. Das RM geht nicht vom Rohwert (Testwert, Score) aus, sondern setzt beim einzelnen Item an. Damit wird eine Prüfung, ob alle Items dieselbe latente Dimension messen überhaupt erst möglich.
  2. Jede beobachtete Antwort (= Reaktion) einer Vp ist von drei Komponenten abhängig: a) Eigenschaften der Person (z.B. Fähigkeiten)b) Eigenschaften des Items (z.B. Schwierigkeit)c) Zufall: unkontrollierbare, fluktuierende Einflüsse, die beim "Messen" in den Sozialwissenschaften immer zu erwarten sind.
  3. Die manifeste Variable (Antworten der Personen auf Items) sind Indikatoren einer postulierten latenten Fähigkeits- oder Eigenschaftsdimension (sprich: Xi)
  4. (mit Hilfe der manifesten Variable wird auf die latente Dimension rückgeschlossen)
  5. Der Zusammenhang zwischen manifester Variable und latenter Dimension ist systematisch, er wird für jedes einzelne Item i durch die Itemcharakteristik (Funktion) hergestellt:
  6. - Jedes item ist mit der latenten Dimension durch eine eindeutigen Funktion verknüpft. In Abhängigkeit von v (Fähigkeit der Person v) hat jede Person eine bestimmte _Wahrscheinlichkeit ein Item zu lösen (probabilistischer Charakter der Item-Response-Theory).- Person mit gleicher Fähigkeitsgraden () haben auch dieselbe Chance fi(), die Aufgabe i zu lösen.- Die Item Lösungswahrscheinlichkeit soll nie 0 oder 1 erreichen, weil der Schäwcste einmal Glück haben kann bzw. dem Besten ein Fehler unterlaufen kann.
  7. Zusammenhänge zwischen den manifesten Variablen (z.B. 2 Antworten 2 verschiedener Items) sind nicht Ausdruck direkter Abhängigkeit zwischen den einzelnen Verhaltensweisen, sondern Ausdruck ihrer Abhängigkeit von einer, allen manifesten Variablen gemeinsam zugrunde liegenden latenten Dimension.

Wenn diese Betrachtung richtig ist und somit
einelatente Dimension existiert, dann könnte man diese latente Dimension (statistisch) konstant halten (herauspartialisieren).
Es folgt: nach Konstanthaltung müssten die Zusammenhänge zwischen den manifesten Variablen verschwinden - lokal stochastische Unabhängigkeit

d.h. Die Wahrscheinlichkeit, dass eine Vp mit Fähigkeit beide Items (i und j) löst ist gleich dem Produkt aus der Wahrscheinlichkeit der Einzelreaktionen, nämlich der Wahrscheinlichkeit Item i zu lösen und der Wahrscheinlichkeit Item j zu lösen. Aus der lokalen stochastischen Unabhängigkeit folgt auch insbesondere, dass die Antworten einer Person auf ein Item nicht von Antworten auf andere Items abhängen darf.

Zusätzlich wird im Rasch Modell angenommen, dass die Antworten
verschiedene Personen__ voneinander stochastisch unabhängig sind (d.h. Schummeln verboten - beeinträchtigt die empirische Modellgeltung).
Tags: Rasch-Modell
Quelle: S44
66
Kartenlink
0
Was bedeutet die lokale stochastische Unabhängigkeit beim RM?
Zusammenhänge zwischen den manifesten Variablen (z.B. 2 Antworten 2 verschiedener Items) sind nicht Ausdruck direkter Abhängigkeit zwischen den einzelnen Verhaltensweisen, sondern Ausdruck ihrer Abhängigkeit von einer, allen manifesten Variablen gemeinsam zugrunde liegenden latenten Dimension.

Wenn diese Betrachtung richtig ist und somit einelatente Dimension existiert, dann könnte man diese latente Dimension (statistisch) konstant halten (herauspartialisieren).
Es folgt: nach Konstanthaltung müssten die Zusammenhänge zwischen den manifesten Variablen verschwinden - lokal stochastische Unabhängigkeit

Formel:

d.h. Die Wahrscheinlichkeit, dass eine Vp mit Fähigkeit beide Items (i und j) löst ist gleich dem Produkt aus der Wahrscheinlichkeit der Einzelreaktionen, nämlich der Wahrscheinlichkeit Item i zu lösen und der Wahrscheinlichkeit Item j zu lösen. Aus der lokalen stochastischen Unabhängigkeit folgt auch insbesondere, dass die Antworten einer Person auf ein Item nicht von Antworten auf andere Items abhängen darf.

Zusätzlich wird im Rasch Modell angenommen, dass die Antworten verschiedene Personen voneinander stochastisch unabhängig sind (d.h. Schummeln verboten - beeinträchtigt die empirische Modellgeltung).
Tags: lokale stochastische Unabhängigkeit, Rasch-Modell
Quelle: S44
67
Kartenlink
0
Wovon soll - laut RM - das Lösen einer Aufgabe abhängen?
Die Wahrscheinlichkeit einer Aufgabe zu lösen [p ( + ӏ ξ v , σi)] soll abhängen von …
  1. Fähigkeit der Person ξv (ξ v ist der zu schätzende Fähigkeitsparameter der Person v)
  2. Schwierigkeit d. Aufgabe σi (σi ist der zu schätzende Itemparameter für Item i)
  3. sonst nichts, d.h. andere Itemauswahl (aus dem Itempool) oder andere Personenauswahl (aus der Grundgesamtheit) sollen keinen systematischen Einfluss auf die zu schätzenden Parameter haben.
Tags: Rasch-Modell
Quelle: S44
68
Kartenlink
0
Wie ist die Datenmatrix zur Schätzung der Parameter im Rasch-Modell aufgebaut?
Dichotomes logistische Modell von RASCH (1960)

Die statistische Information zur Schätzung der Parameter findet sich in der folgenden Datenmatrix (Modellgeltung vorausgesetzt):

Jede Person  ist im RM durch ihre Position v auf der latenten Dimension charakterisiert. v ist ein "Personen(fähigkeits)parameter", der - wie andere statistische Parameter auch - erst geschätzt werden muss.
Analoges gilt für die Itemparameter: Jedes Item ist durch seine Position (Lage) i auf der latenten Dimension charaktersisiert. i ist ein "Item(schwierigkeits)parameter", der erst geschätzt werden muss.
Tags: Rasch-Modell
Quelle: VO06
69
Kartenlink
0
Was ist die Grundgleichung des Rasch-Modells und auf welcher mathematischen Funktion basiert diese?
Erkläre dies anhand eines Beispiels..
Welche mathematische Funktion entspricht nun den durch Rasch aufgestellten Forderungen und Grundannahmen?
Die sog. logistische Funktion

Daher kommt Rasch zu folgender Grundgleichung des RM (Darstellung mit logarithmierten Parametern)

Im RM wird also die Lösungswahrscheinlichkeit als logistische Funktion der Differenz d von Personenfähigkeit und Itemschwierigkeit (v - i) beschrieben.

Berechnungsbeispiel einer Itemcharakteristik
Die Festlegung der Struktur eines probabilistischen Testmodells besteht in der Spezifikation der Funktionen fi (ξ). Sind diese Funktionen bekannt, dann können die Parameter geschätzt werden.

Anmerkung
  • Rasch-Modell benötigt dichotome Testaufgaben.
  • p(+): Wahrscheinlichkeit ein Item zu lösen; hängt nicht davon ab, wie groß v und wie groß i ist, sondern lediglich von der Differenz v-i
  • p(+) = 0,5: wenn v = i; das ist auch inhaltlich sinnvoll, weil Person v dann gleich fähig ist wie das Item i schwierig ist (= Lösungsschwierigkeit 1/2)
Tags: Rasch-Modell
Quelle: S45
70
Kartenlink
0
Was sind Kennzeichen des Rasch-Modells (ergänzende Bemerkungen)?
  • Das RM ist das einzige probabilistische Testmodell, das spezifisch objektive Vergleiche ermöglicht und dadurch "Stichprobenunabhängigkeit" der Messung realisiert
  • Eindimensionalität der Testaufgaben
  • Für alle Items hängt die Lösungswahrscheinlichkeit nur über den Parameter v von den Jeweiligen Testpersonen ab.Alle "latente" Personenmerkmale, die (neben den Itemeigenschaften) die Reaktionen einer Testperson bestimmten, sind vollständig in diesem einen Parameter "zusammengefasst".Eine Verletzung der Eindimensionalität würde bedeuten, dass gewisse Persönlichkeitsmerkmale (z.B. Geschlecht, Alter,...) bei verschiedenen Aufgaben mit unterschiedlicher Gewichtung zur Reaktion beitragen.
  • Erschöpfende Statistik
  • Für jede Person v stellt die Anzahl gelöster Aufgaben (rv ) "Personenrandsumme" oder Rohwert) eine sog. erschöpfende Statistik für ihren unbekannten Personenparameter dar. (Analoges gilt für die Itemrandsummen und die unbekannten Itemparameter)Für die Schätzung des Personenparameters sind sämtliche relevante Informationen in rv enthalten; d.h. es ist also nur mehr von Bedeutung, wie viele der Testaufgaben von einer Person gelöst werden, nicht aber welche.

Wünscht man einen Test, bei dem der Testrohwert (rv) interpretiert werden kann, so mus für diesen Test das Rasch-Modell gelten (und dies ist mathematisch beweisbar)!
Beachte: Nahezu alle herkömmlichen Fähigkeitstests die mittels KTT entwickelt wurden, interpretieren den Testrohwert (=Summe der gelösten Aufgaben), jedoch ohne zu überprüfen, ob das korrekt ist!
Tags: Rasch-Modell
Quelle: S46
71
Kartenlink
0
Was sind die Konsequenzen für die Anwendungspraxis bei
Gültigkeit des RM?
  1. Test misst für alle Personen (begabte/unbegabte; m/w [gender fairness!]; jüngere/ältere, etc.) dieselbe latenten Dimension (sprich: die Items sind Rasch homogen oder eindimensional).
  2. Die Rohwerte (Vpn‐Randsummen) enthalten die gesamten Informationen, die zur Schätzung der Personenfähigkeitsparameter notwendig sind.
  3. Personen mit gleichen Rohwerten sind nachweislich auch gleich fähig. Fragen, welche speziellen Aufgaben von Vpn mit gleichem RW gelöst bzw. nicht gelöst wurden, brauchen nicht mehr gestellt zu werden, da sie – mathematisch beweisbar – keinen diagnostischen „Mehr‐Wert“ liefern.
  4. Der Zusammenhang zwischen den rangskalierten Rohwerten und den intervallskalierten Fähigkeitsparametern ist empirisch begründet (d.h. durch Daten untermauert und durch Modelltests abgesichert). Damit ist eine intervallskalierte Fähigkeitsskala etabliert und man kann von „echter Messung“ der zugrunde liegenden Eigenschaft (Dimension) sprechen.
Tags: Rasch-Modell
Quelle: VO06
72
Kartenlink
0
Beschreibe das Triadische Interpendenzmodell nach Mönks (1987)
- Erweitert den Zugang von Renzulli um die Umweltkomponente (Peer Gruppe, Familie, Schule)


73
Kartenlink
0
Was sind die Vorzüge des Rasch-Modells?
Mittels Modellgeltungskontrollen kann im RM geprüft werden, ob die im Modell enthaltenen Annahmen für einen empirisch gegebenen Datensatz gelten oder nicht. Wenn das Modell empirisch gilt, darf gefolgert werden
  • Der Test misst für alle Testpersonen (jüngere/ältere; begabte/unbegabte; männliche/weibliche; etc.) dieselbe latente Fähigkeitsdimension (dasselbe Konstrukt). Die Testaufgaben sind in diesem Sinne eindimensional und messen fair (z.B. auch Gender-Fair)
  • Die Personenparameter (Fähigkeitsparameter) kennzeichnen die Fähigkeitsgrade der Personen. Sie liegen auf einer Intervallskala und sind unabhängig davon, welche und wie viele Items im Test vorgegeben wurden.
  • Die Itemparameter (Aufgabenschwierigkeitsparameter) liegen auf derselben Intervallskala wie die Personenparameter. Sie kennzeichnen die Schwierigkeitsgrade von Items und sind unabhängig davon, welche Personengruppen getestet werden.
  • Zur Bestimmung der Personenfähigkeiten genügt es zu wissen, wie viele Items gelöst wurden und nicht welche Testitems gelöst wurden.
  • Die Reihenfolge, in der die Items vorgegeben werden spielt für das Testergebnis keine Rolle.
  • Fähigkeitsangepasstes Testen (sog. Adaptives Testen) ist optional möglich, wenn ein genügend großer Aufgabenpool vorhanden ist.
  • Veränderungen können gemessen werden. In der klassischen Testtheorie sagt eine Verbesserung um 1 Rohwertpunkt nicht aus um wieviel sich die Person verbessert hat.

ABER:
Der Aufwand für Testkonstruktion auf Basis des Rasch Modells ist weitaus größer als auf Basis der klassischen Testtheorie. (Das mag zum Teil erklären, dass auch heute noch - trotz unbestrittener Vorzüge der Item-Response-Theorie - Testkonstruktionen mittels klassischer Testtheorie vorgenommen werden.)
Tags: Rasch-Modell
Quelle: S47
74
Kartenlink
0
Was ist der 3DW?
Und welche Ergebnisse zeigte die Überprüfung hinsichtlich des Rasch-Modells?
Ein Rasch‐skalierter Test zur Messung des räumlichen
Vorstellungsvermögens (Gittler, 1990)

Testinstruktion(verkürzt): Jeder Würfel hat sechs verschiedene Muster, nur drei davon kann man sehen. Prüfen Sie, ob einer der Würfel A bis F derselbe Würfel sein kann, wie der links gezeigte Würfel X, oder ob die Antwort G „kein Würfel richtig“ zutreffend ist. Sollte eine Aufgabe zu schwierig sein, dann wählen Sie die Antwort H „Ich weiß die Lösung nicht“.

Empirisch bestimmter Zusammenhang zwischen rangskalierten Testrohwerten und intervallskalierten Fähigkeitsparametern im 3DW

Weitere empirische Ergebnisse zum 3DW:
li.: Grafischer Modelltest (nieder/hoch)
re: theoretische und empirische Item Response Functions

Signifikante Leistungsänderungen
Tags: Beispiel, Rasch-Modell
Quelle: VO06
75
Kartenlink
0
Was sind die Anwendungsbespiele für das Rasch-Modell im Überblick?
  1. Item-Bias
  2. Skalen‐ bzw. Testkonstruktion
  3. Transkulturelles Testen
  4. Entwicklung und Evaluierung von „culture fair“ Tests:
  5. Computerisiertes Adaptives Testen (CAT)
  6. Entwicklung von Aufgabenpools für das computerisierte adaptive Testen (= fähigkeitsangepasstes Testen)
  7. Psychometrische Qualitätskontrolle von Tests
  8. Veränderungsmessung
  9. Veränderungsmessung im Prä‐ / Posttest Design:
Tags: Anwendung, Rasch-Modell
Quelle: S48
76
Kartenlink
0
Inwiefern unterstützt das Rasch-Modell bei der Skalen und Testkonstruktion?
(Aufwand hoch im Vergleich zur KTT wegen der zahlreichen Modellprüfungen an großen Datensätzen)
  • Entdeckung von Item‐Bias: Sofern einzelne Items eines Tests Gruppen von Personen benachteiligen spricht man von Item‐Bias oder "Differential Item Functioning" (kurz: DIF).
  • Derartige DIF‐Items bevorzugen ungerechtfertigter Weise Personengruppen (z.B. Begabungsgruppen, Geschlechtergruppen, ethnische Gruppen, Alters‐ oder Ausbildungsgruppen etc.) und stellen somit eine Gefahr für die Testinterpretation dar. Allgemein kann man sagen: Ein Test, der DIF‐Items enthält, misst nicht fair.
  • Fehlinterpretationen, Verminderung der Messeffizienz (Reliabilität, Validität etc.) des gesamten Tests.

Ein Item ist als verzerrt od. unfair anzusehen, wenn seine IC-Kurve in zwei unabhängig von diesem Item definierten Gruppen verschieden ist; ein Test wird unfair sein, wenn zumindest ein Item "biased" ist.
(Beachte: Die Definition von Item-Homogenität oder Item-Bias erfolgt stets im Rahmen eines bestimmten Modells.)
Tags: Rasch-Modell
Quelle: S48
77
Kartenlink
0
Inwiefern unterstützt das Rasch-Modell das transkulturelle Testen?
Entwicklung und Evaluierung von „culture fair“ Tests:
  1. Nachweis der Gültigkeit des RM in der „Ausgangskultur“
  2. Sorgfältige Übersetzung bzw. Übertragung eines Tests in andere Sprache
  3. Nachweis der Gültigkeit des RM in der „Zielkultur“
  4. Nachweis Gültigkeit des Rasch Modells über beide Kulturen: Im Sinne des RMs ist ein Test dann als culture fair zu bezeichnen, wenn alle Items in den untersuchten Kulturen gemeinsam Rasch homogen sind.

(Anmerkung: Häufig werden nonverbal-bildhaft dargebotene Testaufgaben, zu deren Lösung keine speziellen Kulturtechniken wie Lesen oder Mathematik nötig sind, als Culture-Fair eingestuft - dies reicht aus Sicht der modernen Psychometrie nicht aus. Es muss empirisch nachgewiesen werden.)
Tags: Rasch-Modell
Quelle: S48
78
Kartenlink
0
Inwiefern unterstützt das Rasch-Modell das computerisierte Adaptive Testen (CAT)? Vor- und Nachteile von CAT?
Entwicklung von Aufgabenpools für das computerisierte
adaptive Testen (= fähigkeitsangepasstes Testen):

Es werden individuell unterschiedlich schwierige Aufgaben aus dem Itempool (während der Computertestung) vorgegeben, die dem Fähigkeitsniveau der jeweiligen Vp bestmöglich entsprechen.

Die Auswahl der Items erfolgt durch den Computer - Nach jeder Itembeantwortung wird der aktuelle Fähigkeitsparameter v der Vp geschätzt und danach das bestpassende Item (= informativste Item mit i ungefähr v) aus dem Poo vorgegeben.

Positive Konsequenzen des CAT:
  • Wenige "unnütze" Items im Test (zu leicht bzw. schwere werden vermieden)
  • Höhere Messgenauigkeit bei ev. weniger Items (kürzere Testdauer)
  • Auch in Extrembereichen kann präziser gemessen werden
  • Testabbruch kann auf diagnostische Anforderungen eingestellt werden (z.B. nur grobes Screening oder präzise Messung)
  • Testsicherheit und Testfairness erhöht, weil "Testknackermethoden" weitgehend unwirksam
  • (z.B. Auswendiglernen eines Antwortvektors nicht möglich, weil jede Testperson andere Items vorgelegt bekommt)
  • Abschauen bzw. Schummeln bei Gruppentestungen unterbunden
  • Die Bekanntgabe des Itemtyps der im Pool enthalten Aufgaben (nicht die Poolaufgabe selbst) zur Testvorbereitung ist möglich.
  • (Reduktion von Testangst)

Nachteile:
  • Massiv erhöhter Testkonstruktionsaufwand für den Testkonstrukteur bei der Entwicklung eines Rasch-homogenen Itempools
Tags: CAT, Rasch-Modell
Quelle: S49
79
Kartenlink
0
Inwiefern unterstützt das Rasch-Modell die psychometrische Qualitätskontrolle von Tests?
z.B. Frage, ob zwei ähnliche Tests auch dasselbe Konstrukt erfassen.

Wenn Tests ähnliche latente Dimensionen erfassen, ist es aus testökonomischer Sicht nicht gerechtfertigt, sie gemeinsam in einer Testbatterie zu belassen.

Im klassischen Ansatz wird die Gleichartigkeit von Tests mittels Korrelationen ermittelt, die jedoch keine konklusive (eindeutige) Aussage ermöglichen.
Bei gemeinsamer Verrechnung der Tests im RM ist der Modelltests zwischen den Itemgruppen (Reasoning-Test WMT räumlicher Anteile vs. Raumvorstellungstest 3DW) signifikant - Tests messen nicht dieselbe Subdimension des Konstrukts Raumvorstellung.

Aus dieser Überprüfung mit dem Rasch-Modell können positive Aussagen zum Nutzen und zur Konstruktvalidität der Tests abgeleitet werden.
Tags: Psychometrie, Rasch-Modell, Test
Quelle: S50
80
Kartenlink
0
Inwiefern unterstützt das Rasch-Modell die Veränderungsmessung?
Veränderungsmessung im Prä‐ / Posttest Design:
  • Der Hauptvorteil Rasch homogener Tests liegt in der Intervallskaleneigenschaft der Personenfähigkeitsparameter und der Itemschwierigkeitsparameter.
  • (Testrohwerte beim klassischen Ansatz sind i.A. nur rangskaliert)
  • Unter zusätzlicher Verwendung eines weiteren IRT‐Modells (lineares Logistisches Modell, LLTM) können die Effekte spezifiziert werden (vgl. Beispiele hinten).
Tags: Rasch-Modell
Quelle: S50
81
Kartenlink
0
Was sind Anwendungsbeispiele für Veränderungsmessungen?
Anwendungsbeispiel 1 zum linearen logistischen
Modell (LLTM): Veränderungsmessung


Keine signifikanten Unterschiede zwischen Kaugummikau-Gruppe und Kontrollgruppe.

Anwendungsbeispiel 2 zum LLTM: Veränderungsmessung

„Pheromone Exposure Impairs Spatial Task Performance in Young men“
  • Männer mussten Aufgaben des Raumvorstellungstests (3DW) bearbeiten)
  • Dazwischen mussten sie eine Atemmaske aufsetzen:
  • - Kontrollgruppe: nur Luft- Versuchsgruppe: Pheromone (unter der Riechschwelle)
  • Hypothese - Androgynie-Vorstellung der Raumverstellung: weibliche Männer und männliche Frauen haben bessere Raumvorstellungsfähigkeiten.
  • Indirekt über die Pheromone wird das Testosterone erhöht.
  • Ergebnis: es gab tatsächlich signifikante Veränderungen der Leistung – die Pheromone-Gruppe haben im 2. Teil des Leistungstest signifikant schlechtere Ergebnisse erzielt.
Tags: Beispiel, Rasch-Modell
Quelle: VO06
82
Kartenlink
0
Was ist Intelligenz und wie lässt sich dies zu verwandten Begriffen abgrenzen?
Etymologie: lateinisch „intelligentia“ von „inter legere“ = auswählen durch kritische Beachtung der relevanten Merkmale; ein Ding (od. Begriff) richtig einordnen

Abgrenzung von verwandten Begriffen
  • Begabung: (frühkindlich vorhandene) Voraussetzung für den späteren Erwerb von Fähigkeiten. Der Begriff ist stark mit Vorannahmen über Entwicklungsursachen belastet (Begabung sei angeboren, kaum durch Lernen veränderbar).
  • Klugheit, welche zusätzlich zu Intelligenz die reflexive Umsicht, Menschenkenntnis und Lebenserfahrung mit einschließt (Hassenstein, 1988).
  • Weisheit verstanden als Expertenwissen im Bereich grundlegender Lebensfragen (Baltes & Smith, 1990).

Zahlreiche unterschiedliche Ansichten, was unter Intelligenz zu verstehen ist, sowohl im wissenschaftlichen Sprachgebrauch als auch in der Alltagssprache.

  • Nach alltagspsychologischer Auffassung ist Intelligenz (I.) eine relativ einheitliche Fähigkeit.
  • Es fällt jedoch schwer, zu beschreiben, was intellektuelle Leistungen eigentlich sind.
  • In Verbindung mit der hohen sozialen Erwünschtheit von Intelligenz führt es in westlichen Kulturen zu einer kritischen Haltung gegenüber psychologischen Intelligenzkonzepten.
  • Auch Psychologen können Intelligenz nicht einheitlich definieren.
  • Brauchbare Annäherungen sind jedoch in verschiedenen Intelligenzmodellen gelungen.
  • - Verwendung des Begriffs Intelligenz dennoch zweckmäßig, weil großflächige wechselseitige Überlappungen in Definitionen zu registrieren sind, die eindrucksmäßig gegenüber den Verschiedenheiten überwiegen (Amelang, 1995).
Tags: Definition, Intelligenz
Quelle: S52
83
Kartenlink
0
Was ist das Kompetenz-Performanz-Problem und wodurch kann dies in den Griff bekommen werden?
  •     Fähigkeiten = Persönlichkeitseigenschaften, die Leistungen ermöglichen.*    Leistungen = Ergebnisse von Handlungen, bewertbar nach gut / schlecht.*    Erzielte Leistung hängt von Fähigkeit und Anstrengung (Leistungsmotivation) ab.

Kompetenz‐Performanz‐Problem:
  •     Fähigkeitsunterschiede = Leistungsunterschiede gilt nur, wenn sich Testpersonen gleich anstrengen*   Die realisierte Leistung (Performanz) in einer Aufgabe ist nur bei gleicher Leistungsmotivationsstärke ein geeignetes Maß für Kompetenz (Fähigkeit)

Versuche das Problem in den Griff zu bekommen:
  •     Optimale Anstrengung der Vpn provozieren durch :- motivierende Instruktion- Vermeidung von Unter‐/Überforderung (adaptives Testen)- Belohnung für gute Leistung etc.*    Testwiederholungen: Anstrengungsunterschiede sind anhand intraindividueller Leistungsschwankungen erkennbar

Randbemerkung: Wenn eine Testung z.B. eine Aufnahmebedingung für den Berufseinstieg ist, dann ist die Leistungsmotivation oft höher als bei jenen VPN, an denen die Normen gewonnen wurde.
84
Kartenlink
0
Was ist das Aggregationsprinzip?
(Eigenschafts‐)Messungen werden reliabler aufgrund von Mittelung über mehrere Messungen (teilweise Kompensation der unterschiedlichen Messfehler je Einzelmessungen).
Die gemittelte Messung ist verglichen mit den Einzelmessungen mit einem kleineren Messfehler behaftet.

Bei der empirischen Messung von Eigenschaften, sollten Messungen ausreichend aggregiert sein (d.h. aus ausreichend vielen Einzelmessungen zusammengesetzt).
Tags: Aggregation, Intelligenz
Quelle: S52
85
Kartenlink
0
Was ist die alltagssprachliche Konnotation von Intelligenz? (Untersuchung von Sternberg)
Intelligenz aus Sicht von Laien - Umfrage von Sternberg (1981) : Was kennzeichnet intelligentes Verhalten?
  • Praktisches Problem-Löse-Fähigkeit
  • Verbale Fähigkeit
  • Soziale Kompetenz

Tags: Intelligenz
Quelle: S52
86
Kartenlink
0
Was sind die analytischen Intelligenzdefinitionen (aus Sicht von Psychologen)?
Anastasi (1958)
behauptet, dass "unsere Intelligenztest nur die Fähigkeit messen, in unserer speziellen Kultur erfolgreich zu sein."
Dies stimmt wohl nicht ganz, da auch nicht als intelligent gehaltene Menschen erfolgreich sind und der IQ soll in andere Kulturen übertragbar sein.

Stern
„Intelligenz ist die allgemeine Fähigkeit des Individuums, sein Denken bewusst auf neue Forderungen einzustellen; sie ist die allgemeine geistige Anpassungsfähigkeit an neue Aufgaben und Bedingungen des Lebens.“

Wechsler
„Intelligenz ist die Fähigkeit, zweckvoll zu handeln, vernünftig zu denken und sich mit seiner Umgebung wirkungsvoll auseinanderzusetzen“.

Kritik: Derartige Definitionen haben wenig Erklärungswert: ersetzt man z.B. bei Wechsler die Begriffe erfolgreich, zweckvoll, vernünftig usw. durch das Wort intelligent, so wird die Definition zur sinnfreien Tautologie.

Boring
Die – teils ironisch gemeinte – Definition von Boring (1923),
„Intelligenz ist das, was Intelligenztests messenbesagt zwar nichts darüber, wodurch ein Test als Intelligenztest qualifiziert ist, hat aber zumindest den Vorteil, dass eine eindeutige Kommunikationsbasis für Interessierte gegeben ist.

Hofstätter
Unausgesprochen bleibt, was zur Lösung neuer Probleme bzw. zur geistigen Anpassung an neue Aufgaben erforderlich ist.
Dazu benötigen wir eine „Aussage über die Welt, der gegenüber Intelligenz überhaupt möglich ist“.

Neurologe Sherrington (1950)
„Ingelligence amid chaos would have no survival value“.

Darauf aufbauend:
Hofstätter (1977): „Intelligenz ist die Fähigkeit zur Auffindung von Ordnungen (Redundanz) in der Welt.“
(Der informationstheoretische Begriff Redundanz bedeutet Ordnungsgrad bzw. Regelhaftigkeit.)
Tags: analytische Definition, Definition, Hofstätter, Intelligenz, Stern
Quelle: S54
87
Kartenlink
0
Was stützt die Theorie von Hofstätter (1977) "Intelligenz ist die Fähigkeit zur Auffindung von Ordnungen (Redundanz) in der Welt"?
In einer völlig chaotischen Welt gäbe es keine Orientierungshilfen, ein kluges Verhalten ließe sich nicht von einem törichten unterscheiden.
- Aussagen, was im Gefolge eines Ereignisses X mit höherer (oder geringerer) Wahrscheinlichkeit zu erwarten ist, wären unmöglich.
Anders in einer nicht‐chaotischen Welt: z.B. „Wo Rauch ist (X), findet man zwar nicht immer Feuer, aber doch viel häufiger als dort, wo kein Rauch ist (nicht‐X).“

Das Überschätzen vorhandener Ordnungen (Aberglaube und Vorurteil): Es wird mehr Ordnung vermutet, als es tatsächlich gibt: „Dummheit erster Art“, weil eine richtige H0
abgelehnt wird. – oft ein sozial erwünschtes (kollektives) Phänomen in einer Gesellschaft, daher gibt es durchaus Menschen mit überdurchschnittlichem IQ, die Vorurteile haben und/oder abergläubisch sind.

Das Nicht‐Erkennen - „Dummheit zweiter Art“, weil eine falsche H0 irrtümlich akzeptiert wird.
– z.B. eine VP könnte die Zahlenreihen 2,4,6,8, … nicht fortsetzen. Dummheit zweiter Art ist nach Hofstätter der eigentliche Gegenstand der weitaus meisten Intelligenztests.

Zum Auffinden von Ordnungen in der „Wirklichkeit“ stehen Analysatoren zur Verfügung, denen auf Seiten des Individuums besondere Faktoren der Intelligenz entsprechen (z.B. die „Primary Mental Abilities“ von Thurstone; vgl. später).

  • Auch das Auffinden von Ordnung in unserer ganz persönlichen Innenwelt erfordert nach Hofstätter Intelligenz
  • „Rationale Entscheidungen sind erst dann möglich, wenn wir über die verschiedenen Bereiche unseres Wesens einigermaßen gültige Aussagen machen können"
  • - z.B. über persönlichen Nutzen und subjektive Wahrscheinlichkeiten (vgl. Entscheidungstheorie)
  • Auch Persönlichkeit/ Emotionen beeinflussen intelligentes Verhalten und damit Intelligenz im weiteren Sinn
  • - vgl. heutige Debatte über Soziale Intelligenz und Emotionale Intelligenz (EQ)
Tags: Analysatoren, Hofstätter, Intelligenz
Quelle: S55
88
Kartenlink
0
Auf welchen historischen Entwicklungen beruht das psychologische Intelligenzkonzept?
Das psychologische Intelligenzkonzept ist primär aus seiner historischen Entwicklung her verständlich:
  1. Sinnesprüfungen
  2. von Galton und anderen führten in eine Sackgasse(spezifische Sinnes- und Gedächtnisleistungen korrelieren nur minimal untereinander sowie mit Schul- und Studienerfolg)
  3. Überwindung der Sackgasse
  4. durch Binet, der Intelligenz auf höherem Komplexitätsniveau mittels Aufgaben testete, zu deren Lösung jeweils unterschiedliche intellektuelle Fähigkeiten nötig sind- Erster Intelligenztest im heutigen Sinn, der relativ erfolgreich zur Frage der "Sonderbeschulung" eingesetzt wurde. Dabei nutzte Binet unbewusst das sog. Aggregationsprinzip.
  5. Entwicklung des IQ
  6. (von Stern und später Wechsler) Die Methodik der Intelligenzmessung hat sich seit Wechsler's Abweichungs-IQ kaum mehr verändert. Jedoch besteht auch heute noch Uneinigkeit darin, wie intellektuelle Fähigkeiten am besten zu konzeptualisieren sind: Als Ausdruck einer oder weniger breiter Eigenschaften bzw. als heterogenes Repertoire von mehreren Eigenschaften, die nur unwesentlich miteinander korrelieren.Je nach bevorzugter Ebene in der Eigenschaftshierarchie intellektueller Fähigkeiten wird es daher unterschiedliche Intelligenztheorien (bzw. Intelligenzmodelle) geben.

In jüngster Zeit - nach über einem Jahrhundert Intelligenzstrukturforschung - scheint sich in der Fachwelt die Ansicht durchzusetzen, dass intelligente Leistung wahrscheinlich am besten durch eine hierarchische Struktur abgebildet werden können (vgl. CHC-Modell).
Tags: Binet, Geschichte, Intelligenz, Stern, Wechsler
Quelle: S56
89
Kartenlink
0
Welche Intelligenzmodelle und -theorien gibt es im Überblick?
  • Generalfaktortheorie ("Zwei-Faktoren-Theorie") von Charles Spearman
  • Gruppenfaktormodell: Thorstone's Primärfaktoren
  • Hierarchisches Modell von Vernon (1961)
  • Hierarchisches Modell von R.B. Cattell (1945)
  • Erweiterung von Cattells Modell durch Horn (1965)
  • Taxonomisches Modell von Guilford ("Structure of Intellect" Modell, 1967)
  • Berliner Intelligenzstrukturmodell (B-I; Jäger, 1984)
  • Hierarchisches Modell von Cattell-Horn-Carroll (CHC) (60-70er Jahre)
  • Theorie multipler Intelligenzen ("Frames of Mind Theory", Howard Gardner, 1999/2002)
  • Triarchische Intelligenztheorie (Sternber, 1985, integrativer Ansatz)
Tags: Intelligenz, Intelligenzmodelle
Quelle: S56
90
Kartenlink
0
Auf welchen Erkenntnissen beruhte die Intelligenztheorie von Spearman?
Wer waren die Wegbleiter und die Ziele der wissenschaftlichen Arbeit von Spearman?
Die Generalfaktortheorie / „Zwei‐Faktoren‐Theorie“ von Spearman (1904)

Intelligenztests sind in der Regel positiv miteinander korreliert - sehr sorgfältig ist dieser Frage J. P. Guilford (1956) nachgegangen (120 Tests):
- Von über 7000 Korrelationen waren nur 300 (4.25%) kleiner Null (‐.30 bis .00)
- fast 10% größer .40 (mittleres r = .23)
- Man kann von Gemeinsamkeit sprechen, die in nahezu allen Intelligenzleistungen zum Ausdruck kommt (entspricht dem Ansatz von Spearman)

Charles E. Spearman (1863‐1945) war Ingenieur in der britischen Armee bis 1897
  • Psychologieausbildung bei W. Wundt in Leipzig, Abschluss mit Promotion. 1906
  • Begegnung und Freundschaft mit Karl Bühler
  • Universität in London 1907 – 1931, anschließend in den USA: Er arbeitete über Probleme der Wahrnehmung, Geschichte der Psychologie und Denkpsychologie
  • - Zielsetzung: Mittels „Korrelationspsychologie“ das gemeinsame Element aller „mental tests“ (einschl. experimentalpsychol. Leistungstests) aufzufinden

Tags: Geschichte, Intelligenz, Spearman
Quelle: VO07
91
Kartenlink
0
Was ist die Intelligenztheorie von Spearman? Wie wurde dies entwickelt und weiterentwickelt?
Daten: Spearman (1904) testete die 24 ältesten Kinder einer Landschule mit
  • 2 Variablengruppen
  • - Sensorische Diskrimination: Tonhöhenunterscheidung, Unterschiedsschwellen optisch (Größen) und haptisch (Gewichte),- „Intelligenz“: Schulleistung in div. Fächern; Rangplatz d. Gesamtschulleistung; Lehrerurteil über Intelligenz [bright – average – dull]; „Hausverstand“ beurteilt durch Mitschüler und Frau des Direktors.
  • Ergebnis:
  • - Empirische Korrelationen waren gering- Spearman vermutete Messungenauigkeiten: „Den ‚wahren’ Zusammenhang erhält man erst, wenn eine empirisch ermittelte Korrelation durch die (Wiederholungs)‐ Reliabilität der beiden Maße minderungskorrigiert (d.h. aufwertet) wird.“


Verdünnungsformel“: von Spearman korrekt entwickelt, jedoch falsch angewendet / Formel ist heute Basiswissen innerhalb der Klassischen Testtheorie.
Anwendungsfehler: Statt der höheren Reliabilitäten wurden niedrigere mittlere Interkorrelationen zwischen sensorischen Diskriminationsleistungen (D) und Intelligenzmaßen (I) in die Formel eingesetzt.
Daraus ergab sich eine Überschätzung des korrigierten Zusammenhangs: rDI* = .38 / √ .55 x .25 = 1.01 ‹ rDI* > 1 muss fehlerhaft sein (Spearman machte Rundungsfehler verantwortlich)
Fehlschluss: rDI* ≈ 1 - Sensorische Diskrimination und Intelligenz sind Ausdruck einer grundlegenden Fähigkeit > g‐Faktor gilt!

Zusätzlich beobachtete Spearman, dass in seinen Korrelationsmatrizen die Tetradenbedingung gilt: d.h. alle Tetradendifferenzen = zweizeiligen „Determinanten“ verschwinden bzw. sind nahe Null

Dies kann am sparsamsten erklärt werden durch das Generalfaktormodell:
Jedes Intelligenz‐Maß beruht auf 2 Faktoren:
1) „general intelligence“ (g) &
2) einem anderen Faktor, der für jeden einzelnen Test spezifisch (s) ist.

Schlussbetrachtungen:
  • Spearman erkannte 1927, dass bei Einbezug kognitiver Tests (also nicht mehr sensor. Diskrimination usw.) der g‐Faktor nicht mehr zur Erklärung der Varianzen ausreicht.
  • Er entwickelte daher gemeinsam mit Mitarbeitern ein breiter angelegtes mehrfaktorielles Konzept:
  • - Die Restkorrelationen nach Extraktion von g wurden als spezielle Generalfaktoren ausgewiesen (etwa verbal ability).- Den nahezu gleichen Sachverhalt bezeichnete der englische Forscher Burt als Gruppenfaktoren
  • Spätestens um 1930 ist klar geworden, dass die g‐Faktor–Theorie für eine präzise Intelligenzdiagnostik allein nicht ausreicht.
  • Zur IQ‐Interpretation:
  • Im Falle des IQ wird ein n‐dimensionales Gebilde (Intelligenz) eindimensional betrachtet, was stark eingeschränkte Aussagekraft mit sich bringt (muss man sich bei der Interpretation von IQ stets bewusst sein)
  • Spearman‘s Theorie ist weltweit verbreitet und hat wegen ihrer Plausibilität und Einfachheit bis heute praktische Auswirkungen:
  • - Punktwerte für Einzeltests bilden das Intelligenzprofil- IQ wird als Gesamttestscore (= durchschnittliche Höhe des Intelligenzniveaus) ausgegeben- Als „Grobmaß“ für Screening‐Testungen mag IQ genügen, für präzise Intelligenzdiagnostik nicht
  • Weiterentwicklungen der g‐Faktor‐Theorie:
  • 1) USA: Thurstone (1938): „primary mental abilities“2) England: Erste Hierarchische Modelle (Burt, 1949; Vernon, 1950, 1965)
Tags: Intelligenz, Intelligenztheorie, Spearman
Quelle: S56
92
Kartenlink
0
Was ist das Gruppenfaktorenmodell?
Thurstone's Primärfaktoren / Intelligenzmodell

Thurstone war Assistent des Erfinders Thomas Alva Edison.
  • Beim Lösen von Denkaufgaben sind immer mehrere Gruppenfaktoren (primary mental abilities) in wechselnden Gewichtungsverhältnissen beteiligt (Gegenposition zu Spearman).
  • Um die minimale Faktorenzahl und Spezifität zu ermitteln entwickelte Thurstone die Multiple Faktorenanalyse und das Kriterium der Einfachstruktur.
  • Das Ergebnis waren zunächst neun (1938), dann 7 Primärfaktoren der Intelligenz
  • - wie gleichberechtigte Bausteine nebeneinander, jedoch mit unterschiedlicher Breite.
  • Nach Thurstone sind Faktoren keine realen Gegebenheiten sondern theoretische Konstrukte
  • - die aufgrund der eingesetzten Rotationstechnik zum Teil erheblich korrelieren- das System ist „offen“ und kann (soll) ergänzt werden.

Tags: Gruppenfaktorenmodell, Intelligenz, Intelligenzmodelle, Thurstone
Quelle: S59
93
Kartenlink
0
Was sind die 7 Primärfaktoren der Intelligenz im Gruppenfaktorenmodell?
Thurstone's Primärfaktoren

  1. Space (S):
  2. Raumvorstellung; der am besten fundierte Faktor - Visualization (Veranschaulichung); Marker‐Variable: „Papierfalten“, „Rädergetriebe“- Spatial Relations (räumliche Lagebeziehungen): Marker‐Variable: „Flags“, „Würfelaufgaben“
  3. Number (N)
  4. Rechnerische Fertigkeiten (nicht mathematische Begabung);Marker‐Variable: einfache arithmetische Aufgaben (addieren, substrahieren, multiplizieren) - „Konzentrationsfähigkeit“?
  5. Verbal Comprehensions (V)
  6. Sprachliche Intelligenz (Kenntnis und Bedeutung von Wörtern und angemessene Verwendung im Gespräch, konvergente Produktion);Marker‐Variable: verbale „Analogien“, Textverständnis, Rechtschreibung
  7. Word Fluency (W)
  8. Wortflüssigkeit, rasche Verfügbarkeit von Sprache, divergente ProduktionMarker‐Variable: „Anagramme“ (Umstellen von Buchstaben zu neuem Wort), Wörter mit vorgegebenem Anfangsbuchstaben produzieren, Reime
  9. Memory (M) (associative)
  10. behalten paarweise gelernter Assoziationen (mechanischeKurzzeitgedächtnisleistung)Marker‐Variable: Wort‐Zahl oder Bild‐Figur Paare reproduzieren
  11. Reasoning (R)
  12. logisches Schließen (unabhängig von der Korrektheit des Inhalts); Schon Thurstone vermutete 3 Sub‐Faktoren (Facetten):- Deduction (D)Vom Allgemeinen auf das Besondere schließen; Marker‐Variable: Syllogismen / Beispiel: 1. Alle Schulen sind Gebäude. (erste Prämisse, „Obersatz“)2. Einige Schulen sind Zelte. (zweite Prämisse, „Untersatz“)Wie lautet die korrekte Antwort?A. Kein einziges Gebäude ist ein ZeltB. Einige Gebäude sind ZelteC. Alle Gebäude sind ZelteD. Keiner der Aussagen stimmt- Induction (I)Vom Besonderen auf das Allgemeine schließen; Marker‐Variable: figurale „Matrizentests“, „Zahlen‐ und Symbolreihen“ (Kriminalistik; empirische Forschung)- Reasoning (R): logisches Denken; Anwendung von Deduktion und Induktion bei konkretem Material / Marker‐Variable: eingekleidete Rechenaufgaben, mechanisch‐technische Verständnistests
  13. Perceptual Speed (P)
  14. Wahrnehmungsgeschwindigkeit; Rasches Erkennen von Details, die in irrelevantem Material eingebettet sind / Marker‐V.: „Hidden Figures“. Später unterteilt in:- Speed of closure: Schnelligkeit des Gestaltschlusses / Marker‐V.: bruchstückhafte Bilder erkennen- Felibility of closure: Umstrukturierung und Wandlung von Gestalt; Marker‐V.: „Umspringbilder“

Tags: Gruppenfaktorenmodell, Intelligenz, Intelligenzmodelle, Thurstone
Quelle: S59
94
Kartenlink
0
Wie ist das Vorgehen zur Bestimmung von Faktoren "höherer Ordnung" bei hierarchischen Intelligenzmodellen?
Das Vorgehen zur Bestimmung von Faktoren „höherer Ordnung“ (mit größerem Allgemeinheitsgrad):
  • Testergebnisse (Ausgangsdaten) werden faktorisiert
  • Man erhält Faktoren 1. Ordnung (Primärfaktoren)
  • die individuelle „Ausstattung“ jeder Person in den Faktoren wird errechnet (sog. Faktorscores; vgl. multiples FA‐Modell)
  • Neuerliche FA der Faktorscores führt zu Faktoren 2. Ordnung
  • (Sekundärfaktoren) usw.

Beispiel: Das Modell von Vernon sieht eine hierarchische Ordnung der Intelligenzfaktoren in 4 Ebenen (steigender Allgemeinheitsgrad) vor.
Tags: hierarchische Intelligenzmodell, Intelligenz, Intelligenzmodelle, Vernon
Quelle: S61
95
Kartenlink
0
Was kennzeichnet das hierarchische Modell von Vernon?
(1961)
Mit dem Aufsteigen in der Hierarchie organisiert (dominiert) ein Faktor zunehmend mehr Untervariablen, und die Korrelationen mit der Verhaltensebene werden geringer.
- Modell ist nur mehr historisch interessant.

  • Ebene IV
  • g‐Faktor mit höchstem Allgemeinheitsgrad auf höchster Ebene
  • Ebene III: zwei Hauptgruppenfaktoren (major group factors)
  • - verbal: edukative Fähigkeit - räumlich (kinästhetische): mechanische Faktor
  • Ebene II: Untergruppenfaktoren (minor group factors)
  • f = fluencyw = schriftl. literarische Fähigkeitenv = mündl. linguistische Fähigkeitenn = numerische Fähigkeitenp = perzeptive Fähigkeiten
  • Ebene I: Spezifische Faktoren, die nur den jeweiligen Test kennzeichnen

Tags: hierarchische Modell, Intelligenzmodelle, Vernon
Quelle: S61
96
Kartenlink
0
Was kennzeichnet das hierarchische Modell von R.B. Cattell?
(1945)
Raymond B. Cattell Assistent von Spearman:
Seine seit 1941 entwickelten Modellvorstellungen können als eine Synthese der g‐Faktor‐Theorie und dem Modell mehrerer gemeinsamer Faktoren (Thurstone) aufgefasst werden.

Modell der fluid und crystallized general intelligence:
  • Sekundäranalysen hinlänglich replizierter Primärfaktoren ergaben mehrere Sekundärfaktoren, von denen die ersten beiden – etwas spekulativ – als „fluid“ bzw. „crystallized general intelligence“ interpretiert wurden.
  • gf (fluid intelligence)
  • Fähigkeit sich neuen Problemen od. Situationen anzupassen, ohne dass es dazu im wesentlichen Ausmaß früherer Lernerfahrungen bedarf.- Ist nach Cattell „culture fair“ messbar,- primär genetisch determiniert- starker Altersabbau
  • gc (crystallized intelligence)
  • Fähigkeit, in der sich die kumulierten Effekte vorangegangener Lernprozesse „kristallisieren“.- sprach‐ und kulturabhängig- Milieuabhängig- geringer Altersabbau

Die Existenz eines g‐Faktors wird zudem aus korrelierenden Sekundär‐ bzw. Primärfaktoren erschlossen:
Dadurch, dass mehrere Primärfaktoren sowohl auf gf als auch auf gc laden (Korr. der Dimensionen ca. r = .50), kann ein Faktor 3. Ordnung mit noch größerem Allgemeinheitsgrad extrahiert werden: im Wesentlichen Spearmans g.

Altersverlauf (von 14-61):
- Gc: crystallized intelligence steigt an
- Gf: fluid intelligence sinkt
Tags: Cattell, hierarchisches Modell, Intelligenzmodelle, Spearman
Quelle: S62
97
Kartenlink
0
Was kennzeichnet die Erweiterung des hierarchischen Modells
von Cattell durch Horn und was zeigten empirische Untersuchungen dieses Modells?
Erweiterung des hierarchischen Modells von Cattell durch Horn (1965)

John Horn, Student & Mitarbeiter von R.B. Cattell: konnte nachweisen, dass neben den beiden Sekundärfaktoren gf & gc noch weitereauf gleicher Abstraktionsebene angesiedelte – Faktoren existieren (Dissertation, 1965)

  • Gv: Visuelle Informationsverarbeitung (v. a. Visualisierung, mentale Rotation, Flexibilität bzw. Geschwindigkeit der Gestaltbildung)
  • Ga: Auditive Informationsverarbeitung (Wahrnehmung von Tonmustern unter ablenkenden Bedingungen, Gefühl für Rhythmus, Gruppierungsfähigkeit von Tönen)
  • Gs: Geschwindigkeit der Informationsverarbeitung als Bestandteil fast aller kognitiven Tätigkeiten; erfasst über einfache Aufgaben, die unter speed‐Bedingung vorgegeben werden
  • Gq: Quantitative Fähigkeit: erfasst über Aufgaben, welche die Anwendung grundlegender mathematischer Konzepte erfordern
  • Gsm: Kurzzeitgedächtnis
  • Glm: Langzeitgedächtnis
  • Gcds (Correct decision speed): Schnelligkeit, mit der korrekte Antworten auf nichttriviale Fragen gegeben werden können

Diese 9 Sekundärfaktoren wurden mittels konfirmatorischer FA (Gustaffson, 1989) bestätigt; zudem wurde ein „third order factor“ nahe gelegt (vgl. „g“ von Spearman).
Tags: Cattell, hierarchisches Modell, Horn, Intelligenzmodelle
Quelle: S63
98
Kartenlink
0
Was ist das Taxonomisches Modell von Guilford? Was ist die Kritik?
Intelligenzmodell: Structure of Intellect Modell, 1967

Kontrolluntersuchungen zu div. Intelligenzmodellen führten zu immer neuen Faktoren („Aufsplitterung“, aufgrund der Uneindeutigkeit faktoren‐analytischer Ergebnisse)

Daher geht Guilford (1967) einen neuen Weg:
  • Faktorenanalyse diente nicht zum Auffinden einer Struktur, sondern zur Hypothesenprüfung eines zuvor hypothetisierten, geschlossenen Systems von Faktoren, das Intelligenzleistungen im Bezugsrahmen beschreibt.
  • Beteiligt sind :
  • ‐ 5 kognitive Operationen,‐ 6 Produkte und‐ 4 Inhalte (Materialien)
  • System von 5 x 6 x 4 = 120 theoretisch postulierten Intelligenzfaktoren (Primärfaktoren der Intelligenz)
  • - bis jetzt wurden ca. 80 % davon empirisch bestätigt- großer heuristischer Wert des S‐I Modells- aktuelle Forschungsansätze (z.B. zur sozialen Int.) basieren darauf


Jedes Kästchen enthält einen Primärfaktor.
Kritik: Die postulierte Unabhängigkeit der 120 Faktoren ist nicht gegeben. - Modell müsste sich reduzieren lassen.
99
Kartenlink
0
Was ist das Berliner Intelligenzstrukturmodell? Wie wurde dies erforscht?
B-I; Jäger, 1984
Zu dem von Guilford (taxonomisches Modell) eingesetzten hypothesengeleiteten Vorgehen kommt noch das ausgesprochene methodenkritische Vorgehen (Versuch der Überwindung der Schwächen der FA).

Das B‐I vereint Elemente aus den Theorien von Spearman, Thurstone und Guilford unter Berücksichtigung allgemeiner Erkenntnisse der Intelligenzforschung sowie sehr gezielt durchgeführter gesonderter Erhebungen/ Analysen. (Versuch der Überwindung der Schwächen der FA.)

Ausgangspunkt: Katalogisierung aller der in der Literatur zur Intelligenz‐ und Kreativitätsmessung auffindbaren Aufgabenarten (ca. 2000 Itemtypen).
Unter dem Gesichtspunkt der Beibehaltung der Vielfalt des Aufgabenmaterials und der Repräsentation konkurrierender Modelle wurde zu 191 Aufgabenblöcken reduziert , die 98 Aufgabentypen angehören.

Datenerhebung: 545 Maturanten beiderlei Geschlechts (16 bis 21 Jahre alt) bearbeiteten die 191 Leistungsvariablen (zusammen mit weiteren Interessens‐ und Persönlichkeitstests; ca. 15‐stündige Testzeit, verteilt auf 3 Tage).

Ergebnisse: Diverse Analysen (exploratorische Strukturanalysen, Faktoren‐ und  Clusteranalysen) führten zu folgenden Faktoren, deren Allgemeinheitsgrad etwa dem Niveau von Sekundärfaktoren entspricht:
  • 4 Operationsfaktoren:
  • - Bearbeitungsgeschwindigkeit, - Gedächtnis, - Einfallsreichtum, - Verarbeitungskapazität und
  • 3 Inhaltsfaktoren (Materialfaktoren):
  • ‐ figural‐bildhaft,‐ verbal,‐ numerisch.


Im Unterschied zu Guilford’s S‐I Modell enthalten die Zellen des B‐I keine Primärfaktoren, sondern die bimodal bedingten Leistungen, die jeweils auf einem operativen und einem inhaltsgebundenen Faktor laden.
Die 12 Operations‐Inhalts-Kombinationen repräsentieren als Ganzes einen g‐Faktor (Allgemeine Intelligenz), der als nicht weiter differenzierbare Einheit dem Modell voran steht (B-I Modell ist bimodal & hierarchisch).

Operationalisierung: Berliner Intelligenzstruktur‐Test (BIS‐Test) von Jäger, Süß und Beauducel (Form 4, 1996).

Anwendungsbeispiel: Der Testwert für z.B. Gedächtnis wird aus einem verbalen + einem numerischen + einem figuralen Gedächtnis(sub)test berechnet (d.h. eine Operation des Denkens wird durch Kombination der Leistungen in 3 Subtests gemessen).
Idee dahinter: Die irrelevanten inhaltsgebundenen Varianzanteile werden „unterdrückt“ und die merkmalsspezifischen, operativen Varianzanteile (Gedächtnis) treten deutlicher hervor.
Tags: hierarchisches Modell, Intelligenzmodelle
Quelle: S65
100
Kartenlink
0
Was ist das CHC-Modell?
Hierarchisches Modell von Cattell-Horn-Carroll

Die Theorie wurde – ähnlich dem B‐I – empirisch abgeleitet aus umfangreichen Daten-Reanalysen aus den letzten 60‐70 Jahren.
Da deutlich wurde, dass die Theorien von Cattell (1941), Horn (1965) und Carroll (1993; Three‐Stratum‐Theorie) große Ähnlichkeiten aufweisen, wurde daraus die neue CHC Theorie
entwickelt, die aktuell weltweit viel Zustimmung erhält.

Drei hierarchischen Ebenen (Stratum):
  • Stratum III: 1 general ability (g‐Faktor)
  • Stratum II: 10 broad abilities
  • Stratum I: über 70 narrow abilities
Tags: Carroll, Cattell, CHC, hierarchische Intelligenzmodell, Horn, Intelligenzmodelle
Quelle: S66
101
Kartenlink
0
Was sind die "broad abilities" des CHC-Modells?
Hierarchisches Modell von Cattell-Horn-Carroll

3 hierarchische Ebenen (Stratum):
- Stratum III: 1 general ability (g-Faktor)
- Stratum II: 10 broad abilities
- Stratum I: über 70 narrow abilities

Die "broad abilities" lauten: (G steht für "general")
  1. Crystallized Intelligence (Gc)
  2. includes the breadth and depth of a person's acquired knowledge, the ability to communicate one's knowledge, and the ability to reason using previously learned experiences or procedures.
  3. Fluid Intelligence (Gf)
  4. includes the broad ability to reason, form concepts, and solve problems using unfamiliar information or novel procedures.
  5. Quantitative Reasoning (Gq)
  6. is the ability to comprehend quantitative concepts and relationships and to manipulate numerical symbols.
  7. Reading & Writing Ability (Grw)
  8. includes basic reading and writing skills.
  9. Short‐Term Memory (Gsm)
  10. is the ability to apprehend and hold information in immediate awareness and then use it within a few seconds.
  11. Long‐Term Storage and Retrieval (Glr)
  12. is the ability to store information and fluently retrieve it later in the process of thinking.
  13. Visual Processing (Gv)
  14. is the ability to perceive, analyze, synthesize, and think with visual patterns, including the ability to store and recall visual representations.
  15. Auditory Processing (Ga)
  16. is the ability to analyze, synthesize, and discriminate auditory stimuli, including the ability to process and discriminate speech sounds that may be presented under distorted conditions.
  17. Processing Speed (Gs)
  18. is the ability to perform automatic cognitive tasks, particularly when measured under pressure to maintain focused attention.
  19. Decision/Reaction Time/Speed (Gt)
  20. reflect the immediacy with which an individual can react to stimuli or a task (typically measured in seconds or fractions of seconds; not to be confused with Gs, which typically is measured in intervals of 2‐3 minutes).
Tags: Carroll, Cattell, CHC, hierarchisches Modell, Horn, Intelligenzmodelle
Quelle: S66
102
Kartenlink
0
Was ist die Theorie multipler Intellgenzen (TMI)? Worauf gründet er dieses Modell?
auch: Frames of Mind Theory
Howard Gardner (*1943): Sohn deutscher Emigranten; Bachelor of Arts (1965), PhD (1971), Harvard; beeinflusst von Piaget & Thurstone

Gardner orientiert sich in seiner Theorie sehr eng an klassischen Intelligenzmodellen (wie: Thurstone: "7 primaries", Guilford: Structure of Intellect Model).
Was seinen Ansatz zunächst auszeichnet ist die Erweiterung auf neue, eigenständige Intelligenzbereiche („multiple Intelligenzen“) , die er als Frames of Mind bezeichnet:
  • Linguistische Intelligenz
  • Visuell‐räumliche Intelligenz
  • Logisch‐mathematische Intelligenz
  • Musikalische Intelligenz
  • Körperlich‐kinästhetische Intelligenz
  • Sozial‐interpersonale Intelligenz
  • Sozial‐intrapersonale Intelligenz

Er begründet dies auf der Basis von:
  • neuropsychologischen Beweisführungen:
  • z.B. Läsionen in umschriebenen Hirnregionen führen zu speziellen Ausfällen;
  • kognitionspsychologischen Beweisführungen:
  • je Intelligenz gibt es spezifische Inputs / Outputs / Kernoperationen, eventuell auch ein eigenes Symbolsystem;
  • psychometrischen Beweisführungen:
  • z.B. Eigenständigkeit musikalischer Intelligenz; geringe Korrelationen zwischen Testmaßen unterschiedlicher Intelligenzen;
  • entwicklungspsychologischen Beweisführungen:
  • phylogenetische / ontogenetische Nachweise über eigenständige Entwicklung von Intelligenzen (z.B. ontogenetisch: einseitige Hochbegabungen).
Tags: Gardner, Intelligenzmodelle, TMI
Quelle: S67
103
Kartenlink
0
Was ist der Praxisbezug des TMI?
Theorie multipler Intelligenzen / Frames of Mind Theory (Gardner, 1993)

Praxisbezug: Für jede dieser Intelligenzen gibt er unter anderem an, in welchen Berufen diese eine herausragende Rolle spielt bzw. welche bereichsspezifisch bevorzugte Tätigkeiten besonders charakteristisch für Schüler/Studenten sind, die über bestimmte besonders gut ausgeprägte Intelligenz verfügen.


Beispiele
Linguistische Intelligenz:
- Bereiche/Berufe: Journalismus, Politik, Schriftsteller, Dichter,...
- positiv erlebte Tätigkeiten: Lesen, Schreiben, auditiver Lernmodus, ...
- Bezug zu (modernen) Technologien: Textverarbeitung mit Sprachsteuerung, sprachl. Teil von Multimedia-Authoring

Logische Intelligenz:
- Bereich/Berufe: Mathematiker, Statistiker, Wissenschafter, EDV-Programmeirer, Buchhalter,..
- positiv erlebte Tätigkeiten: Begabt im Auffinden von Mustern/Beziehungen, Klassifizieren
- Bezug zu (modernen) Technologien: Tabellenkalkulationen, Datenbanken, Programmiersprachen,...
Tags: Gardner, Intelligenzmodelle, TMI
Quelle: S68
104
Kartenlink
0
Was ist die Kritik an der TMI?
Theorie multipler Intelligenzen / Frames of Mind Theory (Gardner)

Kritik (von Rost, 2008) an TMI
  • Manche der Konstrukte sind nicht neu, sondern längst eingeführt in faktorenanalytischer Tradition
  • Beweisführungen weder zwingend noch vollständig (teilweise willkürlich ausgewählt)
  • Postulierte Unabhängigkeit der Intelligenzen im Widerspruch zu erdrückender Befundlage, die praktisch für alle untersuchten Verhaltensbereiche eine hierarchische Struktur der Intelligenz impliziert
  • Gardner lehnt g‐Faktor ab, weil er wenig über Erfolg von Personen im Leben vorhersagen könne - Dies widerspricht zahlreichen Befunden, die g als wesentlichen Prädiktor für Schulerfolg, Berufserfolg und weitere biographische Variablen ausweisen
  • Gardner hat keine Diagnostik (Operationalisierung) zur Messung multipler Intelligenzen entwickelt, die den klassischen Gütekriterien (Objektivität, Reliabilität, Validität) standhalten würde. Dementsprechend fehlt eine empirische Bewährung der TMI.
  • Gardner hat sich nicht um empirische Fundierung gekümmert, sondern die Liste multipler Intelligenzen verlängert, wie z.B.:
  • - Naturalistische Intelligenz- Existenzielle Intelligenz- Geistige Suchscheinwerfer‐ Intelligenz- Laser‐ Intelligenz- Synthetische Intelligenz- Kreative Intelligenz- Respektvolle Intelligenz- Ethische Intelligenz

Rost: Der Verdacht keimt auf, dass es sich hier um eine pseudowissenschaftliche Benennung wünschenswerter Eigenschaften mit dem Zusatz Intelligenz handelt.
Tags: Gardner, Kritik, TMI
Quelle: S69
105
Kartenlink
0
Was ist die triarchische Intelligenztheorie?
von Sternberg (1985), ein integrativer Ansatz

Die Theorie versucht zwar die faktorenanalytische Forschung zu integrieren, beruht selbst aber nicht auf diesem methodischen Ansatz, sondern auf
- kognitionspsychologischen und
- informationsverarbeitenden Ansätzen

Drei Bereiche intelligenten Verhaltens („Subtheorien“) werden von Sternberg unterschieden:
a) Komponenten‐Subtheorie: Elemente intelligenten Verhaltens, die in der Person angelegt sind (Komponenten der „inneren Welt“)
b) Erfahrungs‐Subtheorie: Elemente intelligenten Verhaltens, die der Vermittlung zwischen innerer und äußerer Welt dienen
c) Kontext‐Subtheorie: beschreibt wesentliche Determinanten und Ziele intelligenten Verhaltens in der „äußeren Welt
Tags: Intelligenzmodelle, Sternberg, triarchische Intelligenztheorie
Quelle: S69
106
Kartenlink
0
Was umfasst die Komponenten-Subtheorie der triarchischen Intelligenztheorie?
nach Sternberg (1985), ein integrativer Ansatz
3 Subtheorien: Komponenten-Subtheorie (innere Welt), Erfahrung-Subtheorie (Austausch), Kontext-Subtheorie (äußere Welt)

Komponenten-Subtheorie (innere Welt)
Metakomponenten: Planende Strategie‐Komponenten. Deren Aufgaben:
1. Erkenntnis des Vorliegen eines Problems (Art bzw. Natur des Problems)
2. Auswahl von Ausführungskomponenten
3. Wahl der mentalen Repräsentationsart des zu lösenden Problems (Bild vs. Wort)
4. Bereitstellung mentaler Ressourcen (z.B. gute Problemlöser verwenden mehr Ressourcen für Problem‐Endkodierung als für die nachfolgenden Phasen der Informationsverarbeitung)

Ausführungskomponenten: bereichsspezifische Fähigkeiten, die je nach Theorie unterschiedlichen Generalitätsgrad aufweisen (z.B. Thurstone‘s Primärfaktoren od. Guilford‘s S‐I Modell etc.).
Deren Aufgabe:
1. sie führen Instruktionen auf Basis der Metakomponenten aus, und
2. liefern den Metakomponenten Feedbacks über Fortschritt einer Problemlösung.

Wissensaneignungskomponenten: zuständig für Erwerb des Wissens, das die Meta- und Ausführungskomponenten für ihre Tätigkeiten benötigen, indem sie
1. Information selektiv enkodieren (Relevantes von weniger Relevantem trennen),
2. Information zu sinnvollen Einheiten kombinieren, und
3. diese Einheiten selektiv vergleichen.
Tags: Intelligenzmodelle, Sternberg, triarchische Intelligenztheorie
Quelle: S69
107
Kartenlink
0
Was umfasst die Erfahrung-Subtheorie der triarchischen Intelligenztheorie?
nach Sternberg (1985), ein integrativer Ansatz
3 Subtheorien: Komponenten-Subtheorie (innere Welt), Erfahrung-Subtheorie (Austausch), Kontext-Subtheorie (äußere Welt)

Erfahrungs‐Subtheorie (Vermittlung zw. innerer und äußerer Welt)
Zwei Fähigkeiten erscheinen Sternberg maßgeblich (analog Cattell gf und gc) :
  • die Fähigkeit, mit relativ Neuem umzugehen; sie kann über Tests erfasst werden, die über einen hohen gf Anteil verfügen (Inductive Reasoning, Figural Relations etc.);
  • die Fähigkeit, Informationsverarbeitung zu automatisieren, d.h. aus Erfahrung zu lernen (gc)

Fähigkeiten sind je Lebensalter unterschiedlich ausgeprägt:
  • In jüngeren Alter ist die Fähigkeit mit Neuem umzugehen höher, weshalb mehr Ressourcen verbraucht werden müssen, um aus Erfahrungen zu lernen (Schulbesuch, berufliche Aus‐ und Weiterbildung).
  • Im höheren Alter ist im Allgemeinen ein höherer Anteil der Informationsverarbeitung bereits automatisiert, weshalb mehr Ressourcen zur Aneignung von Neuem benötigt werden.
Tags: Intelligenzmodelle, Sternberg, triarchische Intelligenztheorie
Quelle: S70
108
Kartenlink
0
Was umfasst die Kontext-Subtheorie der triarchischen Intelligenztheorie?
nach Sternberg (1985), ein integrativer Ansatz
3 Subtheorien: Komponenten-Subtheorie (innere Welt), Erfahrung-Subtheorie (Austausch), Kontext-Subtheorie (äußere Welt)

Beschreibt die drei wesentlichen Ziele intelligenten Verhaltens:
  • Anpassung an die Umwelt („sich der Welt anpassen“)
  • „Shaping“ der Umwelt („sich die Welt anpassen“)
  • Wechsel der Umwelt („aus dem Felde gehen“)

Anpassung an die Umwelt: trotz der gleichen zugrundeliegenden Komponenten sind die Anforderungen je nach Kultur bzw. sozialer Schicht unterschiedlich.
  • Betonung im westlichen Kulturkreis auf abstrakten Denkfähigkeiten, während sie z.B. bei australischen Aborigines (Kearins, 1981) auf dem figuralen Gedächtnis liegt.
  • – Aus diesem Grund erbringen Aborigines in diesem Bereich im Vergleich zu englischsprachigen Australiern wesentlich höhere Testleistungen.
  • Ein weiteres nach Sternberg interessantes Merkmal ist jenes der „Zeitverwendung“:
  • – In südlichen Kulturen hat Zeit im Vergleich zu nordwestlichen Kulturen eine untergeordnete Bedeutung.– Vergabe zeitbegrenzter Tests kann daher für Angehörige südlicher Kulturen benachteiligend sein.

„Shaping“ der Umwelt:
Wenn die Anpassung an eine bestimmte Umweltform nicht gelingt, kann versucht werden, die Umwelt nach eigenen Vorstellungen zu verändern. Als Beispiel führt Sternberg Wissenschaftler an, die – als kreative Leistung verstanden – einen Paradigmenwechsel herbeizuführen suchen.

Wechsel der Umwelt:
Wenn jedoch Anpassungs‐ und Shapingleistung misslingen, bedeutet der Wechsel der Umwelt ebenfalls intelligentes Verhalten.
Beispiel aus dem „Milgram‐Experiment“: Nur wenige Vpn verließen das Experiment vorzeitig, weil sie sich den Versuchsbedingungen (Anordnungen des Versuchsleiters) nicht beugen wollten und auch erkannten, dass sie diese Bedingungen nicht verändern können.
Tags: Intelligenzmodelle, Sternberg, triarchische Intelligenztheorie
Quelle: S71
109
Kartenlink
0
Was ist die "theory of successful intelligence"?
Neufassung der triarchischen Intelligenztheorie durch Sternberg
(Theory of successful Intelligence, 1997)

Sternberg hat die triarchische Intelligenztheorie modifiziert oder besser, eine neue Intelligenztheorie vorgestellt.
Es geht ihm dabei um die intellektuellen Grundlagen dafür, dass jemand in seinem Leben erfolgreich ist – egal in welchem soziokulturellen Kontext er steht und egal, welche Einzelfähigkeiten (Abilities) er besitzt.

In dieser Neufassung wird der Schwerpunkt auf das Finden einer
  • individuelle „funktionellen Balance“ (Optimierung im Hinblick auf eigene Stärken und Schwächen) gelegt;
  • Balance in drei Intelligenzbereichen
  • analytische, kreative und praktische Intelligenz
  • es geht um Erreichung eines soziokulturell definierten Erfolgskriteriums („success“).


„My research is motivated primarily by a theory of successful intelligence, which attempts to account for the intellectual sources of individual differences that enable people to achieve success in their lives, given the sociocultural context in which they live.
Successfully intelligent people discern their strengths and weaknesses, and then figure out how to capitalize on their strengths, and to compensate for or remediate their weaknesses.
Successfully intelligent individuals succeed in part because they achieve a functional balance among a "triarchy" of abilities: analytical abilities, which are used to analyze, evaluate, judge, compare and contrast; creative abilities, which are used to create, invent, discover, imagine; practical abilities, which are used to apply, utilize, implement, and activate.
Successfully intelligent people are not necessarily high in all three of these abilities, but find a way effectively to exploit whatever pattern of abilities they may have. Moreover, all of these abilities can be further developed.
A fundamental idea underlying this research is that conventional notions of intelligence and tests of intelligence miss important kinds of intellectual talent, and overweigh what are sometimes less important kinds of intellectual talent.“
Tags: Intelligenzmodelle, Sternberg, triarchische Intelligenztheorie
Quelle: S71
110
Kartenlink
0
Was sind die Forschungsfragen bzw. -methoden zur Untersuchung der Grundlagen und Korrelate der Intelligenz?
Es gilt als einigermaßen gesichert, dass sich Intelligenztestaufgaben durch eine hierarchische Struktur abbilden lassen (vgl. z.B. das CHC Modell)

Herausforderungen: Suche nach kausalen Ursachen für die beobachtbaren individuellen Unterschiede
  • Intelligenz-Testwerte liefern zwar Information über die Höhe von Leistungen, sagen aber nichts über die kognitiven und physiologischen Prozesse aus; dafür sind andere als die bisher besprochenen korrelationsstatistischen Methoden notwendig
  • Eine experimentelle Herangehensweise scheint erfolgversprechend

Untersucht wurden:
  • Prozessmodelle der menschlichen Informationsverarbeitung
  • Verarbeitungsgeschwindigkeit oder mentale Geschwindigkeit (Mental Speed, MS)
  • Arbeitsgedächtnis (Working Memory)
Tags: Forschung, Intelligenz
Quelle: S72
111
Kartenlink
0
Was sind Prozessmodelle der menschlichen Informationsverarbeitung?
(zunächst analog Computermetapher)
Z.B. Komponenten-Ansatz, mit dem spezifische (Denk-)Schritte der Informationsverarbeitung identifiziert und die je Denkschritt benötigte Zeit zwischen Personen verglichen wurde.

In der Abbildung ist beispielhaft ein allgemeines Prozessmodell (Sternberg, 1969 / vgl. A in Abbildung) wiedergegeben und mit jenen Gedächtniskomponenten und Prozessen unterlegt, die während gewisser Stadien des Prozessmodells aktiv sind. (vgl. B).

Allgemeingültiges Ergebnis: Bei allen Komponenten – mit Ausnahme der Enkodierung – benötigen intelligente Vpn weniger Zeit .
Tags: Intelligenz, Prozessmodell, Sternberg
Quelle: S72
112
Kartenlink
0
Wie wurde die Verarbeitungsgeschwindigkeit oder mentale Geschwindigkeit (mental speed, MS) untersucht (im Überblick)?
Untersucht als globale Eigenschaft des kognitiven Informationsverarbeitungssystems, egal um welche Operationen (visuelle / auditive) es sich handelt

Verwendet wurden sog. Elementary Cognitive Tasks (ECT), die so einfach gestaltet sein mussten, dass sie nicht mit verschiedenen mentalen Strategien lösbar sind

ECT-Beispiele:
  • Inspektionszeit
  • Hick-Paradigma - mit Jensen Box
Tags: Experiment, Forschung, Intelligenz, mental Speed
Quelle: S73
113
Kartenlink
0
Was zeigten die Untersuchungen zur "Inspektionszeit"?
Untersuchung der Verarbeitungsgeschwindigkeit (mental speed) mittels Elementary Cognitive Tasks (ECT).

ECT-Beispiel: Inspektionszeit
- Tachystoskopische Darbietung (Kurzzeitdarbietung des Reizes etwa im Bereich zw. 10 bis 200 ms)
- dann „Maskierung“
- Ermittlung der individuelle Inspektionszeit: die Zeit, bei der die Vp 95% richtige Antworten gegeben hat (nach Durchführung vieler Versuche)

Zusammenhänge mit Intelligenz: ca. -.23 bis -.30;d.h. intelligentere Vpn sind schneller

Tags: Forschung, Intelligenz, mental Speed
Quelle: S73
114
Kartenlink
0
Was ist das "Hick-Paradigma" und was zeigten die Untersuchungen dazu?
„Hick-Paradigma“ (Hick, 1952): linearer positiver Zusammenhang zwischen Reaktionszeit (RZ) und Anzahl der Wahlmöglichkeiten (=Informationsmenge in Bit)

Reaktionsapparat (Jensen-Box) mit 8 Lampen:
  • Hand liegt auf Startposition
  • Vp muss so rasch wie möglich auf eine der Lampen drücken, die aufleuchten
  • Wird im Experiment nur 1 Lampe verwendet (einfache Reaktionsaufgabe) 0 Bit visuelle Information
  • - bei Verwendung von 2 Lampen 1 Bit Information- bei 4 Lampen 2 Bit,- bei 8 Lampen 4 Bit
  • allgemein: Informationsgehalt in Bit = ld(n), d.h. Logarithmus dualis od. binärer Logarithmus der Anzahl von Alternativen n. Es folgt: RZ = Bewegungszeit + ld(n) * Informationsverarbeitungsgeschw. (IV)
  • wobei die Bewegungszeit, die Zeit bis zum Drücken der Antworttaste

In einfacher Näherung kann angenommen werden, dass für jede Verdoppelung der Wahlmöglichkeiten in einem Experiment die Reaktionszeit um ca. 150 ms steigt.

Roth (1964) konnte zeigen, dass bei intelligenteren Menschen die Reaktionszeit bei wachsender Zahl von Alternativen signifikant langsamer ansteigt als bei weniger intelligenten (links).

In der Verkehrspsychologie wurde festgestellt, dass bei regelmäßiger Übung die Reaktionszeiten, unabhängig von der Erhöhung der Wahlmöglichkeiten, gegen einen festen Wert gehen (rechs).
Tags: Intelligenz, mental Speed
Quelle: S74
115
Kartenlink
0
Wie wurde des Arbeitsgedächtnis untersucht? Zusammenhang zur Intelligenz?
Es ist die Frage, wie viele Einheiten (Objekte) in diesem Gedächtnissystem gespeichert und mental bearbeitet (etwa umgestellt oder wiedererkannt) werden können

Die Kapazität wird durchschnittlich mit 7 +/-2 Einheiten angegeben (Miller, 1956, „magical number seven“)

Zusammenhänge mit Intelligenz: ca. +.32 bis +.50
  • d.h. intelligentere Vpn haben größere Kapazität
  • Typische Aufgaben:
  • - „Zahlennachsprechen“ (die Zahlenreihe wird dabei immer länger)- reading span task (Lesespanne-Aufgabe): Vpn müssen steigende Zahl von Sätzen laut vorlesen, sich jeweils das letzte Wort merken und anschließend reproduzieren (erstaunlich schwierig, die meisten Vpn haben Lesespanne von nur 5 Sätzen)
Tags: Forschung, Intelligenz, working memory
Quelle: S74
116
Kartenlink
0
Welchen Zusammenhang zwischen working memory (WM) und mental speed (MS) zeigen Untersuchungen?
Metaanalyse (Ackerman et al. ,2005) ergab einen Zusammenhang von r = .57

Jensen (2005) schlug eine theoretische Synthese vor, er nimmt an
  • Gehirn ist kapazitätslimitiert (nur gewisse Anzahl von Operationen pro Zeiteinheit verarbeitbar)
  • Informationen im WM „zerfallen“ rasch
  • Vpn, die über größere MS verfügen, können mehr Operationen mit Informationen durchführen, bevor diese zerfallen sind
  • Je schneller die Verarbeitung (MS) und je größer die Kapazität des WM, desto effizienter kann das Gehirn mit Informationen umgehen und desto intelligenter ist eine Person

Daraus folgt: Annahme, dass es generelle Unterschiede in der Qualität gäbe, mit der Gehirne Informationen verarbeiten können.

Stemmler et al. (2011, S.187): „Es geht also nicht mehr um die Funktionalität der ‚Software‘, sondern um die Effizienz der ‚Hardware‘ .

Soll Intelligenz also als eine Eigenschaft des zentralen Nervensystems aufgefasst werden, wobei es darum geht, Informationen schnell aufzufassen und fehlerfrei zu bearbeiten?
- Wäre nur noch ein kleiner Schritt zur biologischen Fundierung der Intell.
- So weit ist es aber (noch) nicht:
- Direkte Messungen der Nervenleitgeschwindigkeit und Effizienz synaptischer Übertragungen sind derzeit kaum möglich & die entsprechenden Untersuchungen und Befunde zu uneinheitlich
Tags: Forschung, Intelligenz, mental speed, working memory
Quelle: S75
117
Kartenlink
0
Wie wurden bzw. werden neuronale Korrelate der Intelligenz untersucht?
  • systematische Untersuchung biologischer Eigenschaften im Zusammenhang mit IQ hat eine lange Tradition (vgl. anthropometrische Ansätze bei Broca, 1861, oder Galton, 1888)
  • Mit Entwicklung besserer Methoden wurde es möglich, non-kognitive, biologischer Parameter und Intelligenz genauer zu untersuchen
  • Zahlreiche Untersuchungen wurden und werden durchgeführt mit unterschiedlicher Methodik:
  • - ereigniskorrelierte EEG-Potentiale- Positronen-Emissions-Tomographie (PET)- funktionelle Magnetresonanztomographie (fMRT)
Tags: Forschung, Intelligenz, Neurale Korrelate
Quelle: S75
118
Kartenlink
0
Was ist ein ERP?
Event related potentials (ERP) / Ereigniskorrelierte EEG-Potentiale
  • es handelt sich um Veränderungen der hirnelektrischen Aktivität infolge visueller, akustischer oder taktiler Reize
  • spezifische „Reiz-Antworten“ werden erst nach oftmaliger Exposition der Stimuli durch „Übereinanderlegen“ der EEG-Ableitungen (sog. Mittelungstechnik) sichtbar
  • ERP sind nur nach entsprechender Verstärkung und innerhalb sehr kurzer Zeiträume (bis ca. 500 ms nach Reizdarbietung) zu registrieren
Tags: EEG, Forschung
Quelle: S76
119
Kartenlink
0
Welche neurale Korrelate der Intelligenz zeigen Untersuchungen mit Ereigniskorrelierte EEG-Potentialen?
Hauptergebnisse zu wichtigen ERP-Parametern:
Latenz:
  • Latenzzeiten korreliert negativ mit psychometrischer Intelligenz (Deary et al., 1993; Neubauer et al., 1995)
  • Gehirne intelligenter Personen verarbeiten Reize schneller

Kohärenz:
  • Ähnlichkeit der EEG-Aktivität in verschiedenen Kortexarealen korreliert negativ mit Intelligenz
  • Personen mit höherer Intelligenz dissoziieren ihre Gehirnaktivität stärker, d.h. sie aktivieren jene Areale, die für die Aufgabenstellung wichtig sind bei gleichzeitiger Deaktivierung nicht benötigter Areale

Desynchronisation:
  • Wenn der Kortex funktional aktiviert wird, reduziert sich die Alpha-Aktivität (8-13Hz)
  • die EEG-Kurven zeigen ein unregelmäßiges Muster (sprich: das EEG ist desynchronisiert)
  • Ausmaß der Desynchronisierung nach Reizpräsentation kann gemessen werden
  • Intelligente Personen aktivieren bei der Lösung von Denkproblemen weniger Hirnareale (haben geringeren funktionellen Aufwand) als weniger intelligente Personen (Neubauer & Fink, 2005)
Tags: EEG, Forschung, Intelligenz, neurale Korrelate
Quelle: S76
120
Kartenlink
0
Was zeigten die Untersuchungen mittels PET und fMRT hinsichtlich neuraler Korrelate der Intelligenz?
Positronen-Emissions-Tomographie (PET)
  • bei stärkerer Beanspruchung des Gehirns wird mehr Energie verbraucht
  • Dieser Energieverlust wird durch einen erhöhten Glukose Stoffwechsel ausgeglichen
  • In einer bekannten Studie (Haier, 1988), die wegen Gesundheitsrisiken an nur 8 Vpn durchgeführt wurde, korrelierte die Glukose Metabolismus Rate (Stoffwechsel) signifikant negativ mit Intelligenz (Ergebnisse wurden repliziert)
  • Intelligente Personen verbrauchten vergleichsweise weniger Energie

Funktionelle Magnetresonanztomographie (fMRT)
  • es wird die Veränderung der Sauerstoffsättigung des Blutes im Gehirn (die wiederum an den neuralen Metabolismus gekoppelt ist) gemessen, während Intelligenzaufgaben zu bearbeiten sind
  • Mit wenigen Ausnahmen zeigt sich, dass intelligentere Vpn geringere Hirnaktivität zeigen
Tags: fMRT, Forschung, Intelligenz, PET
Quelle: S76
121
Kartenlink
0
Was zeigten zusammengefasst Untersuchungen zu neuralen Korrelaten der Intelligenz?
Trotz verschiedener Methodik ist ein konsistentes Bild erkennbar:
- Die Gehirne intelligenterer Personen benötigen einen geringeren metabolischen bzw. funktionellen Aufwand, um eine geforderte Leistung zu erbringen
- Dies passt zur „Hypothese der neuralen Effizienz“ (Vernon, 1993)
  • Diese Hypothese nimmt an, dass Gehirne von intelligenteren Personen beim Bearbeiten von kognitiven Aufgaben effizienter arbeiten
  • d.h. mit geringerem physiologischen Aufwand eine größere mentale Leistung erbringen können

Die Frage, ob intelligentere Personen mehr mentale Ressourcen verbrauchen oder mit diesen effizienter umgehen, ist zwar noch nicht endgültig geklärt, letzteres ist jedoch wahrscheinlicher.

Beispielhaft seien hier 2 Hypothesen genannt für die Verursachung neuraler Effizienz:
  • Myelisierungshypothese (Miller, 1994):
  • Neuronen mit dickerer Myelinschicht haben schnellere Impulsleitung (= höhere Effizienz und mentale Geschwindigkeit). Demgemäß müssten Personen mit stärkerer Myelinisierung auch größere Gehirne aufweisen. In einer Übersicht zu 12 Einzelstudien wird eine durchschnittliche Korrelation von .40 zwischen Hirnvolumen und Intelligenz berichtet.
  • Neurale Plastizitätshypothese (Garlick, 2002)
  • Größere Effizienz sei durch größere neurale Plastizität verursacht. Darunter versteht man die Fähigkeit des Gehirns, sich neuen Anforderungen durch Aussprießen von Axonen und Dendriten strukturell-funktional anzupassen. Bei beserer Anpassungleistung des Gehirns kommt es zu größerer mentaler Geschwindigkeit und besserer Effizienz.
Tags: Forschung, Intelligenz, neurale Korrelate
Quelle: S77
122
Kartenlink
0
Welche Geschlechtsunterschiede bzgl. IQ wurden in verschiedenen früheren Untersuchungen festgestellt?
  • Terman übertrug 1916 den Binet‐Test in US‐amerikanischen Sprachraum und führte erste Untersuchungen zu GU durch
  • - nur leichte Vorteile für Mädchen, denen keine Bedeutung beigemessen wurde- 1937 (Terman & Merrill) zeigte sich in einer Testrevision bei einigen neuen Aufgaben bedeutende GU; diese Items wurden als unfair bewertet und ausgeschlossen
  • Wechsler (1944) schloss sich dieser Praxis an. In den gängigen IQ‐Tests gab es daher keine GU.
  • Merz (1979): „Intelligenz im Sinne dieser Tests ist nur das, was beide Geschlechter gleich gut können“.
  • Gleichheit der Geschlechter war keine a‐priori Festsetzung im Sinne von „political correctness“, sondern war eher als Entsprechung zum Terman`schen Befund von 1916 gedacht.
  • Es fehlte ein Konzept (eine Modellvorstellung) zur Prüfung, ob einzelne Aufgaben für beide Geschlechter dasselbe latente Konstrukt – und somit fair – messen.
  • - Heute kann dies z.B. mit dem Rasch Modell empirisch geprüft werden
Tags: Forschung, Geschlechtsunterschiede, Intelligenz
Quelle: S77
123
Kartenlink
0
Was zeigen neuere Untersuchungen zu Geschlechtsunterschieden und IQ?
Neuere Ergebnisse zeichnen ein etwas anderes Bild (vgl. Stemmler, Hagemann, Amelang & Bartussek, Differentielle Psychologie und Persönlichkeitsforschung, 7. Aufl., 2011):
  • Meta‐Analyse von Lynn & Irwing (2004; 48 Studien): Geschlechtsunterschiede im Mittel von IQ Punkten zugunsten der Männer, der mit zunehmendem Alter größer wird.
  • Bestätigung der Ergebnisse (Irwing & Lynn, 2005) in einer weiteren Meta‐Analyse mit dem Raven‐Test (SPM)

Nyborg (2005)
Stichprobe: Dänische Kinder & Jugendliche;
repräsentative Zufallsziehung aus dem Melderegister.
Test: IQ berechnet aus breit angelegter Intelligenztestbatterie.
Ergebnisse: Jungen hatten durchschnittlich 7.2 Punkte höheren IQ, aber größere Varianz.
Interpretation: große Überlappungen der Verteilungen. Am oberen Rand führt der etwas größere Mittelwert und die größere Varianz zu massiver Verschiebung des Geschlechterverhältnisses (vgl. Quotient).

Weitere Erklärungen:
g = 0 entspricht IQ = 100; g = 1 entspricht IQ = 115.
  • Quotient (graue punktierte Kurve) = 1 bei ca. IQ = 104 (vgl. Schnittpunkt der Häufigkeitsverteilungen.
  • im Bereich IQ = 145 (entspricht: g = 3) kommen auf ein Mädchen mehr als 8 Jungen - im Bereich der Hochbegabung ist also mit mehr Jungen als Mädchen zu rechnen.

Die größere Varianz bei Männern in kognitiven Leistungen ist ein immer wieder bestätigter Befund, d.h. Frauen sind sowohl im unteren als auch im oberen Bereich der Intelligenzverteilung unterrepräsentiert.
{
* Die Empirie liefert auch Hinweise dafür, dass in spezifischen Funktionsbereichen systematische GU bestehen.
* Als Ursache dieser GU werden biologische wie auch soziale Faktoren diskutiert.
* Die gegenwärtige Datenlage lässt allerdings noch keine verlässlichen Schlussfolgerungen zu.
Tags: Forschung, Geschlechtsunterschiede, Intelligenz
Quelle: S78
124
Kartenlink
0
Welche Geschlechtsunterschiede zeigen Studien in Bezug auf spezifische Funktionsbereiche im Intelligenzbereich?

Als Ursache dieser GU werden biologische wie auch soziale Faktoren diskutiert. Die gegenwärtige Datenlage lässt allerdings noch keine verlässlichen Schlussfolgerungen zu.
Tags: Forschung, Geschlechtsunterschiede, Intelligenz
Quelle: S79
125
Kartenlink
0
Was untersuchte die Terman-Studie? Was waren die Ergebnisse?
Lewis M. Terman (1877‐1956) Psychologieprofessor, Stanford University in Kalifornien

Ausgangspunkt war die Prüfung zweier widersprüchlicher Hypothesen:

1) „Orandum est, ut sít mens sana in corpore sano.“ (= Man muss darum beten, dass ein gesunder Geist in einem gesunden Körper wohne.)

Einschlusskriterien für Studie (Auswahl aus n=250.000 Schüler/innen):
  1. Nominierung der intelligentesten Kinder durch 6000 Lehrerurteile,
  2. Auswahl der 10% Testbesten im „National Intelligence Test“,
  3. Auswahl der Kinder, die in Kurzform des Stanford-Binet Test IQ ≥ 130 erreichten,
  4. Endgültige Auswahl jener Kinder, die in Langform des S-B einen IQ ≥ 140 erreichten (n=1528; Mean IQ = 151, s = 10).

Ausgewählte Ergebnisse
Kindheit:
- Hochbegabte Kinder waren größer und gesünder
- Grundschulleistungen dieser Kinder waren weit überdurchschnittlich
- Hochbegabte Kinder zeigten ausgeprägtes Neugierverhalten (beim Spielen), spieleinschlägige Wissensbasis war weit über das Altersgemäße hinaus entwickelt
Jugend:
- Überlegenheit in Schulleistungen wurde beibehalten
- Vorteilhafte Auswirkungen der Fördermaßnahme „Überspringen von Schulklassen“ auf weitere Schullaufbahn
- Übertrittsquote ins College: 90% bei Männern, 80% bei Frauen (sehr hoch zur damaligen Zeit!)
Erwachsenenalter:
- Generell: Intellektueller Vorsprung blieb erhalten; überdurchschnittliche Produktivität (Auszeichnungen, Publikationen etc.)
- Geschlechtsspezifisch: Bei Berufstätigkeit befanden sich Frauen in gleich hohen Positionen wie Männer dieser Stichprobe

Wesentliche Schlussfolgerung aus Terman-Studie: Ergebnisse sprechen eher für Harmoniehypothese, aber: Es bedarf offensichtlich nicht nur der eindimensionalen Betrachtung intellektueller Leistungen, sondern einer mehrdimensionalen Sichtweise - wie sie z.B. im triadischen Interdepenzmodell von Mönks realiseirt ist..
Tags: Hochbegabung, Terman
Quelle: S79
126
Kartenlink
0
Was war die Kritik an der Terman-Studie?
Spezielle Kritik:
- Lehrerurteile als erster Selektionsschritt fragwürdig
- Intelligenzquotient als alleiniges Maß für Hochbegabung unzureichend
- Unterschichtkinder waren unterrepräsentiert (Lehrerurteile; Sprachlastigkeit des Tests)

Allgemeine Kritik:
IQ der Standford‐Binet‐Skala ist kein Abweichungsquotient (Intelligenzalter mit 16 Jahren in S‐B begrenzt - je höher das Lebensalter bei Ersttestung, desto schwieriger, einen hohen IQ zu erhalten)
Tags: Hochbegabung, Kritik, Terman
Quelle: S80
127
Kartenlink
0
Welche Definitionsklassen von Hochbegabung können unterschieden werden?
Lucito (1964) unterscheidet mehrere Definitionsklassen von Hochbegabung:

1. „ex posto facto“ Definition:
- Definition als „hochbegabt“, nachdem etwas Hervorragendes (für den Fortschritt der Menschheit) geleistet wurde
- Zwei Definitionsmerkmale, die transkulturell und über die Zeit hinweg sehr stabil sind:
  • Einschätzung der Eminenz: Globaler Impact, den die betreffende Person hat; messbar über Einschätzungen von Peers bzw. Fachexperten; spezielle Auszeichnungen; Raum, der betreffenden Persönlichkeiten in Enzyklopädien u.ä. eingeräumt wird, …
  • Einschätzung der Produktivität: Zahl der geschaffenen Werke (Bücher, Gedichte, Erfindungen, Kompositionen etc.)

2. StatistischeDefinition
Personen, die sich hinsichtlich ihrer Fähigkeit im oberen Teil der Normalverteilung befinden
  • wer z.B. einen bestimmten IQ erreicht oder überschreitet wird als „hochbegabt“ bezeichnet
  • Beispiele:
  • - Terman: 140 (= oberste 2% im Standford-Binet Intelligenztest)- Mensa: 130 (= oberste 2% der Allgemeinbevölkerung)- Four-Sigma-Society (unterer Grenz-IQ: 164)- Mega-Society (unterer Grenzwert: 176; Vorkommen = 1 : 1 Million) - Fragwürdigkeit der Messbarkeit

3. Integrierte, weite Definition
Person wird als hochbegabt angesehen, deren Potential sowohl im produktiven als auch im kritischen Denkbereich annehmen lässt, dass sie mit diesem Potential in Zukunft neue Probleme löst oder Innovationen einführt, sofern dieses Potential entsprechend gefördert wird
Beispiele für solche Ansätze:
- SOI-Modell von Guildford
- Drei-Komponenten-Modell von Renzulli (vgl. unten)
- Triadisches Interdependenzmodell von Mönks (vgl. unten)
Tags: Definition, Hochbegabung
Quelle: S81
128
Kartenlink
0
Was umfasst eine Checkliste für Hochbegabung?
Zur Identifikation von Hochbegabung im Vorschulalter existieren Checklisten auf diversen Homepages von Bundesministerien, die etwa folgende Inhalte ansprechen:

Anahnd des kombinierten Auftretens folgender Merkmale kann auf Hochbegabung geschlossen werden:
Merkmale des Lernen und Denkens
  • Bereich Wissen: hohes Detailwissen in einzelnen Bereichen, lesen von sich aus viele Bücher, die deutlich über ihre Altersstufe hinausgehen, Interesse für Erwachsenenthemen
  • Bereich Sprache: ausdrucksvolle, ausgearbeitete Sprache mit ungewöhnlichem Wortschatz
  • Bereich Gedächtnis/Lernfähigkeit: können sich Fakten schnell merken
  • Bereich Abstraktion: suchen nach Gemeinsamkeiten und Unterschieden, schnelles Erkennen zugrundeliegender Prinzipien
  • Bereich Beobachtung: außergewöhnlich gute Beobachtungsfähigkeit

Arbeitshaltung und Interessen
  • gehen in bestimmten Problemen völlig auf (Flow-Erlebnis), sind durch Routineaufgaben eher gelangweilt
  • sind bemüht, Aufgaben vollständig zu lösen, Neigung zum Perfektionismus, sind selbstkritisch und setzen sich selbst hohe Leistungsziele

Merkmale des Sozialverhaltens
  • Hochbegabte beschäftigen sich früher mit moralisch-ethischen Begriffen (gut-böse, Recht-Unrecht)
  • gehen nicht um jeden Preis mit der Mehrheit, sind individualistisch, sind bereit , sich gegen Autoritäten zu engagieren
  • können gut Verantwortung übernehmen, planen und organisieren gut, neigen sehr schnell dazu, Situationen zu bestimmen
  • kommen mit Alterskollegen ebenso wie mit Erwachsenen im Allgemeinen gut aus, bevorzugen aber die Gesellschaft Gleichfähiger
Tags: Hochbegabung
Quelle: S82
129
Kartenlink
0
Welche Probleme gibt es bei der Untersuchung von Entwicklugnshypothesen?
2 quasiexperimentelle Untersuchungstypen (ohne Randomisierung): Querschitt- vs. Längsschnittstudie
  • Querschnitt-Studie: Alters- & Generations-effekte (Kohorteneffekte) sind konfundiert.
  • Längsschnitt-Studie: Alters- und epochale Effekte sind konfundiert.


Problematik besteht also darin, dass die interessierende UV mit anderen Variablen konfundiert ist, die die AV (z.B. Gedächtnisleistung) möglicherweise ebenfalls beeinflussen.

Beispiele für Untersuchungshypothesen zu den drei UV:
  • Gedächtnisleistung lässt mit zunehmendem Alter nach (interessierende UV = Alter)
  • Studenten der frühen 1970er politisch aktiver als jene, der früheren 1980er (UV = Epochen)
  • Menschen der Nachkriegsgeneration sind leistungsmotivierter als Menschen, deren Geburt in 1960er Jahre fiel (UV = Kohorten).

Um z.B. Alterseffekte zu isolieren (vgl. die erste Hypothese):
  • müssten die anderen beiden UV – Epoche und Kohortekonstant gehalten werden
  • das ist unmöglich, da zu einem bestimmten Erhebungszeitpunkt (= Epoche konstant) nicht Menschen verschiedenen Alters zu finden sind, die nicht gleichzeitig auch unterschiedlichen Kohorten (Geburtsjahrgängen) angehören
  • Es ist untersuchungstechnisch unmöglich, die Bedeutung einer der drei UV isoliert zu erfassen!
Tags: Entwicklung, Forschung
Quelle: S83
130
Kartenlink
0
Welche aktuellen Forschungsbereiche bezüglich Intelligenzkonzepten gibt es derzeit parallel bzw. als Erweiterung zu klassischen Intelligenztheorien? (im Überblick)
  • Praktische Intelligenz
  • Anwendung der Intelligenz im natürlichen Setting (Alltag)
  • Soziale Intelligenz
  • Darunter versteht man weitläufig die Fähigkeit gut mit anderen zurechtzukommen.(Sternbergs soziale Kompetenz, SOI Modell
  • Emotionale Intelligenz
  • Fähigkeit mit den eigenen Emotionen und den Emotionen anderer umzugehen bzw. umgehen zu können.
Tags: Forschung, Intelligenz
Quelle: S84
131
Kartenlink
0
Was versteht man unter der praktischen Intelligenz? Für welche Art der Problemlösung ist diese notwendig?
Praktische Intelligenz: Anwendung der Intelligenz im natürlichen Setting (Alltag) - steht im Gegensatz zur erworbenen Fähigkeit (academic intelligence)

Definition von Frederiksen (1986):
Praktische Intelligenz spiegelt sich in all jenen kognitiven Akten wider, die sich außerhalb schulischer Setting ergeben.
(Wagner (2000) kritisiert, dass Definition nicht "exkludierend" sind)

Eingesetzter Test - "Postkorbaufgabe" ("In Basket-Test")
Proband muss einen Postkorb voll simulierter Memos, Telefonanrufen und Arbeitsaufgaben in der zur Verfügung stehen Testzeit möglichst effizient abarbeiten.

Intelligente Leistungen im herkömmlichen Sinn unterscheiden sich von praktisch intelligenten Leistungen im Hinblick auf die Eigenschaft des zu bearbeitenden Problems
  • Traditionelle Intelligenztestaufgaben: wohl definiert, werden von anderen formuliert, beinhaltet alle Informationen und haben zumindest eine richtige Antwort
  • Alltagsproblem: nur unvollständig definiert, müssen vom Problemlöser aufgrund vorliegender Evidenz selbst formuliert werden und beinhalten oft nicht die zur Problemlösung benötigte Information. Es existieren mehrere Antworten.

2 Faktoren erklären praktische Intelligenz:
  • Ideenflüssigkeit
  • Tacit knowledge
  • Wissen über den Problembereich. Untersuchung zeigte Zusammenhang (.48) zw. tacit knowledge und allgemein anerkannten Indikatoren wissenschaftlichen Erfolgs (z.B. Zahl publizierter Arbeiten).Kein Zusammenhang (.07) zw. kognitiven Maßen und tacid knowledge (nach Eddy, 1988).Tacit knowledge ist nach Wagner und Sternberg (1985) mehr praktisch als akademisch, mehr informell als formell und wird üblicherweise nicht direkt gelehrt.
Tags: Forschung, Intelligenz, Praktische Intelligenz
Quelle: S84
132
Kartenlink
0
Was ist die soziale Intelligenz?
Soziale Intelligenz, soziale Kompetenz
- Weitläufig versteht man darunter die Fähigkeit gut mit Anderen zurechtzukommen

Defnitionsversuche zur sozialen Intelligenz
  • Thorndike (1920): "social intelligence" ist die "ability, to understand and manage men and women, girls and boys - to act wisely in human relations"- und unterscheidet sich damit von "abstract intelligence" (the ability to understand and manage ideas) und "mechanical intelligence" (the ability to understand and manage concrete objects)
  • Moss & Hunt (1927): verstehen unter sozialer Intelligenz "the ability to get along with others" (ähnlich "Big 5" Persönlichkeitsfaktoren - Agreeableness)
  • Wechsler (1939): Soziale Intelligenz "is just general intelligence applied to social situations."

Thorndike unterscheidet zwei Aspekte sozialer Kompetenz
  • Soziale Sensitivität: Einfühlungsvermögen, Empathiefähigkeit
  • Soziale Handlungskompetenz: Fähigkeit zum geschickten Lösen sozialer Konflikte
  • 2 Subkomponenten: Durchsetzungsfähigkeit und Beziehungsfähigkeit


Implizite Sichtweise

  • Sternberg (1981) sieht soziale Kompetenz als eine der 3 Faktoren was Laien unter Intelligenz verstehen.
  • Kosmitzki & John (1993): nach Faktorisierung von 18 prototypischen Eigenschaften ergaben sich u.a. folgende Hauptdimensionen:
  • - Fähgikeit Gedanken, Gefühle und Absichten anderer Personen zu verstehen- Fähgikeit mit anderen gut umzugehen- Fähigkeit, die Perspektive anderer einnehmen zu können- Offenheit für neue Erfahrungen, Werte und Ideen
  • Schneider et al (1996): Faktoren sozialer Intelligenz
  • Extraversion, Wärme, soziale Einflussnahme und soziale Einsichtbildung (Dimensionen waren statistisch unabhängig)

Explizite Sichtweise
SOI Modell: (Guilford, 1967)
5 Operationen, 6 Produkte mit verhaltensbezogenem Inhalt ergeben 30 Zellen im Quader
(Beispiele: Kognition verhaltenbezogener Einheiten (=Fähigkeit, innere Zustände eines anderen zu erkennen); Kognition verhaltensbezogener Systeme (= Fähigkeit, eine Abfolge von Sozialverhaltensweisen zu interpretieren),...)

Kenntnisstand der wissenschaftlichen Psychologie zu sozialer Kompetenz und sozialer Intelligenz relativ unbefriedigend - Problem: hoch komplexes Konstrukt und stark transaktionalen und dynamischen Charakter.
Tags: Forschung, Intelligenz, soziale Intelligenz
Quelle: S85
133
Kartenlink
0
Was versteht man unter der emotionalen Intelligenz?
Salovey & Mayer (1990); "Emotional Intelligence" von Goleman (1995)

Im Allgemeinen versteht man unter emotionaler Intelligenz die Fähigkeit mit eigenen Emotionen und den Emotionen anderer umzugehen bzw. umgehen zu können.
  • relativ breit gefächtertes Konzept
  • enthält verschiedenste Faktoren des inter- und intraindividuellen Gefühlsmanagements

Definition: "ability to carry out accurate reasoning about emotions and the ability to use emotions and emotional knowledge to enhance thought"
Umfasst 4 verschiedene Funktionsbereiche:
  • Wahrnehmung von Emotionen bei sich und anderen
  • Förderung des Denkens durch Emotionen
  • Verstehen und Analysieren von Emotionen
  • Regulation von Emotionen

Nach Petrides & Furnham (2003) gibt es
  • ability based models und
  • (Leistungstests operationalisieren EI als Fähigkeit)
  • trait based models
  • (Selbstberichte; emotionsbezogene Selbstwahrnehmung erfassen Traits)

ABER: geringe Korrelation zwischen Leistungstest und Selbstbericht.

Die Zusammenhänge der EI mit der Intelligenz eher gering (r=.22). Kritiker deuten dieses Ergebnis dahingehend, dass EI eine Facette der Intelligenz ist.

Problem: es fehlt eine einheitliche Operationalisierung und weitere Forschung in Bezug auf Konstruktvalidität notwendig.
Tags: emotionale Intelligenz, Forschung, Intelligenz
Quelle: S87
134
Kartenlink
0
Was ist eine Theorie und was kennzeichnet eine nützliche Theorie?
Theorien sind "systematisch geordnete Ideen  und geplante Forschungsansätzen".

Kriterien für „Wert“ einer Theorie:
  • Explizitheit der Begriffe (und deren empirische Verankerung)
  • Sparsamkeit
  • Bandbreite (Vollständigkeit)
  • Widerspruchsfreiheit
  • prognostischer Wert
  • Prüfbarkeit (Operationalisierung)
  • Anwendbarkeit
  • forschungsanleitende Produktivität

Zusammenfassend ergibt sich der Wert einer Theorie für die Erfahrungswissenschaft somit aus dem Grad der Erfüllung der genannten Kriterien; d.h. eine Theorie ist nicht wahr oder falsch, sondern mehr oder weniger „nützlich“ bzw. „nutzlos“.
Tags: Psychologie, Theorie
Quelle: S88
135
Kartenlink
0
Welche unterschiedlichen Definitionen von "Persönlichkeit" gibt es und was beeinflussen diese Definitionen?
Verschiedene Wissenschaftler unterscheiden sich je nach (philosophischem) Menschenbild, Forschungmethodik, Forschungschwerpunkt sowie aufgrund des Zeitgeistes hinsichtlich ihrer Betrachtungsweise zum Konstrukt "Persönlichkeit".

  • Eysenck (1953)
  • Persönlichkeit ist die mehr oder weniger feste und überdauernde Organisation des Charakters, des Temperamentes, des Intellekts und der Physis eines Menschen.
  • Allport (1961)
  • Persönlichkeit ist die dynamische Ordnung derjenigen psychophysischen Systeme im Individuum, die seine einzigartige Anpassung an die Umwelt bestimmen."
  • Pawlik (1973)
  • Persönlichkeit ist die Gesamtheit reliabler inter- und intraindividueller Unterschiede im Verhalten, sowie deren Ursachen und Wirkungen.
  • Hermann (1976)
  • Persönlichkeit ist ein bei jedem Menschen einzigartiges, relativ überdauerndes und stabiles Verhaltenskorrelat.
  • Pervin (1993)
  • Persönlichkeit repräsentiert solche Eigenschaften einer Person oder der Menschen generell, die ein beständiges Verhaltensmuster ausmachen.
Tags: Persönlichkeit, Theorie
Quelle: S89
136
Kartenlink
0
Was ist einer Persönlichkeitstheorie?
Welche Fragen werden behandelt?
Persönlichkeitstheorien sind Systeme zur Beschreibung, Erklärung und Vorhersage individueller psychologischer Besonderheiten von Menschen (Asendorpf, 1996).


  • Struktur:
  • Die Frage „Was?“ bezieht sich auf die statischen, stabilen Aspekte menschlichen Verhaltens und Erlebens ebenso wie auf „Eigenschaften“ (von Menschen) und deren Beziehung zueinander.Strukturen können unterschieden hinsichtlich- ihrer "Bausteine" (Basiseinheiten): z.B. Wesenszüge oder Traits, Typen, Gewohnheiten- ihrer Komplexität: wenige zentrale Konstrukte oder komplexe Systeme (wie z.B. traitorientierte Ansätze)- ihres Aufbaues: nicht-hierarchisch vs. hierarchisch (z.B. Primär- und Sekundärfaktoren)
  • Prozess:
  • Die Frage „Warum?“ bezieht sich auf dynamische Aspekte der menschlichen Persönlichkeit, stellt also die Frage nach der Motivation menschlichen Verhaltens und Erlebens.
  • Entwicklung:
  • Die Frage „Wie?“ bezieht sich auf umwelt‐ und anlagebedingte Determinanten der Entwicklung (Veränderung) der menschlichen Persönlichkeit bzgl. Struktur und ablaufender Prozesse über die Lebensspanne hinweg.
Tags: Persönlichkeit, Theorie
Quelle: S89
137
Kartenlink
0
Welche Einflussgrößen beeinflussen die Theorienbildung in der Psychologie?
Theorien haftet – naiv betrachtet – der Schein der Unvoreingenommenheit an; tatsächlich gibt es Einflussgrößen verschiedenster Art wie:
  • das zugrundeliegende Menschenbild (Weltanschauung, philosophische Strömung)
  • die nationale Herkunft (europäische Tradition: philosophisch, pessimistisch; angloamerikanische Tradition: pragmatisch, optimistisch)
  • persönliche Meinungen und Zeitgeist (z.B. zum Nutzen von Theorien: So meint etwa Skinner, 1950, dass sich Theorien hemmend auf die Kreativität des Forschers auswirken)

Hier sind noch alternative Menschenbilder gegenübergestellt und wie diese Theorien beeinflussen:
Tags: Persönlickeit, Theorie
Quelle: S90
138
Kartenlink
0
Kann oder soll man ohne Theorie auskommen?
Diesbezüglich möchte ich mich der Meinung von Gage (1963) anschließen, der dazu ausführt:

„Natürlich sind alle Menschen ... Theoretiker. Sie unterscheiden sich nicht in ihrem Gebrauch von Theorien, sondern in dem Grad, bis zu dem sie sich der Theorien, die sie gebrauchen, bewusst sind.
Der Mann auf der Straße und ebenso der Forscher steht nicht vor der Wahl, entweder Theorien zu verwenden, oder nicht, sondern vor der Wahl, ihre Theorien zu artikulieren und explizit darzustellen um sie prüfen zu können, oder sie unausgesprochen zu lassen.“
Tags: Theorie
Quelle: VO10
139
Kartenlink
0
Welche grundlegende Bemerkungen gibt es zu den Persönlichkeitstypologien?
Wann haben diese Typologien einen diagnostischen Mehrwert und welche Methode wurde hier häufig eingesetzt?
Typenbegriffe fassen eine große Anzahl von Einzelbefunden in Einheiten (Typen) zusammen.

Die Tatsache, dass wir Menschen Ausdrucksqualitäten relativ einheitlich deuten können (d.h. stereotype Urteile abgeben bzw.  implizite Persönlichkeitstheorien anwenden ohne zu fragen, ob diese Beurteilungen begründet sind oder nicht), scheint uns die Berechtigung für die Entwicklung von Typologien zu geben.

Der Grad der Komplexität impliziter Persönlichkeitstheorien (ca. 3 unabhängige Dimensionen) stimmt mit dem Komplexitätsgrad von Typologien überein, die bis vor dem 2. Weltkrieg als Persönlichkeitstheorien publiziert wurden.

„Diagnostischer Mehrwert“ einer Typologie ist nur dann vorhanden, wenn diese empirisch begründet (begründbar) ist – allerdings ist das bei keiner „klassischen“ Typologien der Fall.

Methode:
„Physiognomischer“ (oder „typologischer“) Schluss, mit dessen Hilfe man von mehreren bekannten bzw. beobachtbaren Eigenschaften eines Menschen zur Feststellung unbekannter Verhaltenszüge kommen kann.
Beispiel (aus der Psychoanalyse) für typologischen Schluss: Zwanghafte Ordnungsliebe + Sparsamkeit + Intoleranz = „analer Typ (Charakter)“.
Soweit das nur ein Name für eine Eigenschaftskonstellation ist, ist nichts auszusetzen; bedenklich ist die Herleitung der entsprechenden Charakterzüge aus frühkindlichen Erfahrungen (namentlich die Härte bei der Reinlichkeitserziehung), weil Befunde der Entwicklungspsychologie diese Interpretation nicht rechtfertigen.
Heute: verschiedene statistische Modelle um Personen - z.B. nach latenten Eigenschaften - zu gruppieren (Latent Class Analysis; Konfigurations-Frequenz-Analyse usw.)

Im Sozialverhalten haben implizite Persönlichkeitshteorien bzw. stereotype Urteile eine "Entlastungfunktion", weil sie als Orientierungshilfe dienen und einen Bezugsrahmen für das Verhalten gegenüber anderen Menschen schaffen
(Beispiel: "erster Eindruck" hat in der interpersonellen Wahrnehmung (social perception) massive Entlastungsfunktion)
Tags: Ausdruck, Typologischer Ansatz
Quelle: S91
140
Kartenlink
0
Was ist der Halo-Effekt?
Welchen Einfluss kann der "erste Eindruck" haben?
Halo-Effekt
Verfälschungstendenz in der Persönlichkeitswahrnehmung
Wenn wir jemanden Fremden begegnen, besteht soziale Spannung, die dadurch reduziert werden kann, dass wir - ausgehend von beobachtbaren Merkmalen wie nett gekleidet, sauber, höflich, usw. uns jemand erscheint - auf weitere Merkmale "schließen" - z.B. diese Person wird auch ehrlich, intelligent, etc. sein.
Wenn dieser Schluss nicht stimmt spricht man von einem Halo-Effekt.

Erster Eindruck
Wenn wir eine Person einmal kategorisiert haben, besteht die Tendenz, genau jene Eigenschaften verstärkt wahrzunehmen (selektive Wahrnehmung), die wir aufgrund des ersten Eindrucks sehen wollen bzw. erwarten, weil wir im Allgemeinen dann "ineressiert" sind, unseren "ersten Eindruck" zu bestätigen und nicht daran, ihn zu widerlegen.
Von daher kommt auch der subjektive Eindruck, dass unser erste Eindruck häufig stimmt.
Tags: Persönlichkeit, Wahrnehmung
Quelle: S92
141
Kartenlink
0
Was sind die Typologien von Kretschmer?
E. Kretschmer (1888‐1964), Deutscher Psychiater

Beobachtete Zusammenhang zwischen Körperbau und psychiatrischer Diagnose:
3 „Konstitutionstypen“: leptosom, athletisch, pyknisch

Entwickelte Theorie in erster Hälfte des 20. Jhdts.: Geisteskranke unterscheiden sich im Erleben und Verhalten von psychisch Unauffälligen nur quantitativ, nicht qualitativ;
d.h. sie besitzen jene Charaktereigenschaften, die sich auch im „Normalbereich“ finden, nur in übersteigerter Form (war damals sehr umstritten). - Übertragung der Charaktereigenschaften auf „normale“ Menschen möglich!

Neben den 3 „reinen“ Typen gibt es den „dysplastischen Typ“, der durch eine Unter‐ bzw. Überentwicklung einer Körperregion bei sonst normaler Entwicklung gekennzeichnet ist.

Nach Kretschmers Theorie können den 3 reinen Typen bestimmte Eigenschaftsbündel (Temperamente) im "Normalbereich" zugeordnet werden:

Gemäß der Theorie eines kontinuierlichen Übergangs von normalem Charakter über Grenzfälle ("borderline cases") zum Geisteskranken lauten die Temperamentsbezeichnungen und Krankheitsbilder:
Tags: Kretschmer, Typologischer Ansatz
Quelle: S93
142
Kartenlink
0
Welche Typologien unterscheidet W. Sheldon?
(1940)
Der amerikanische Psychologe W. Sheldon kritisierte, dass Kretschmer seine Erkenntnisse nur durch unsystematische Beobachtung, nicht durch objektive Körperdaten gewonnen hatte. - Versuch der Widerlegung mittels eines eigens entwickelten Körperbauindex (= 3‐stelliger Code, der auf 18 Körpermaßen – Körperhöhe, Gesichtsbreite, Halsdicke, Rumpfbreite, Armdicke etc. – basiert) ist letztlich misslungen.

Die Typologie von Sheldon lautet:


Tags: Sheldon, Typologischer Ansatz
Quelle: S94
143
Kartenlink
0
Was ist die Kritik an klassischen Typologien?
Typologien, die über ein dreidimensionales System nicht hinausgehen, sind aus unserer Alltagserfahrung begründbar
(kein diagnostischer Mehrwert; vgl. oben); d.h. die Zahl der Typen ist zu gering (zu grobe Beschreibungskategorien).

Rohracher (1969): In der mitteldeutschen Bevölkerung kommen bloß 10% „reine Typen“ (Kretschmer) vor. - 90 % „Mischtypen“ (wie leptosom‐athletisch usw.).

Der typologische Schluss (von physiologischen auf psychologische Merkmale) konnte nicht empirisch abgesichert werden.

Burchard (1936): Manisch‐depressive sind durchschnittlich 50 Jahre alt, Schizophrene 31. Die Körperform ändert sich aber mit Alter von eher leptosom zu eher pyknisch. Das erklärt Teil des statistischen Zusammenhangs zwischen Körperbau und psychiatrischer Diagnose!
Tags: Kritik, Typologischer Ansatz
Quelle: S95
144
Kartenlink
0
Welchen Ansatz verfolgen die faktorenanalytischen Persönlichkeitstheorien?
Aufgrund der Nachteile von Typologien ergibt sich die Frage, wie viele Dimensionen ausreichen würden, um Individuen psychologisch zutreffend beschreiben zu können - genauer gesagt ergeben sich 2 wichtige Fragestellungen für die Persönlichkeitspsychologie:
  • Wie viele Dimensionen werden zu einer theoretisch befriedigenden Unterscheidung von Individuen (Persönlichkeiten) benötigt)
  • Wie viele Stufen pro Dimension sollten vorhanden sein, damit verlässlich diskriminiert (d.h. zwischen Menschen unterschieden) werden kann?

Zahl der Dimensionen
In einem k‐fach abgestuften System mit d Dimensionen können kd Personen individuell (d.h. als eigene Kategorie) beschrieben werden.
Die Zahl der benötigten Dimensionen bei gegebener Zahl von Stufen und Individuen lässt sich errechnen:
d = log P / log k.

Zahl der Abstufungen je Dimension
Nach Miller (1956; „magical number 7“) kann angenommen werden, dass k = 7 ± 2 Stufen pro Dimension sicher diskriminiert werden können
(Anzahl der Antwortkategorien in Fragebögen sollte ca. 5‐9 sein).

Da in der Population die Personen bzgl. der k Abstufungen je Dimension nicht gleichverteilt sind, sondern erfahrungsgemäß einer NV folgen, muss entweder d oder k ein wenig erhöht werden, um den entstehenden „Diskriminationsverlust“ auszugleichen.
- Wollte man z.B. ca. 6 Milliarden Menschen individuell beschreiben, so ergibt sich bei k = 5, k = 7 bzw. k = 9 Stufen eine Dimensionszahl von d = 14, d = 12 bzw. d = 10.
- Ein entsprechend komplexes Klassifikationssystem (mit d = 16) wurde z.B. von R. B. Cattell entwickelt (16 PF Fragebogen).
Tags: Faktorenanalyse, Persönlichkeit
Quelle: S95
145
Kartenlink
0
Wann und wo arbeitet Cattell? Welche Erkenntnisse verdanken wir Cattell?
Cattell, R.B.
  • 1905 in Devonshire, England
  • Professor an der University of Illinois sowie Direktor des Laboratory of Personality Assessment
  • 1924 Abschluss eines Chemiestudiums
  • 1929 PhD im Fach Psychologie. Mehrjähriger Mitarbeiter von Ch. Spearman
  • Sammelte praktische Erfahrungen als Leiter eines Erziehungsheimes für Kinder
  • Forschungsziel: Schaffung eines Gesamtsystems menschlicher Eigenschaften (Analogie zu: Periodensystem chemischer Elemente)

Cattell verdanken wir die Überwindung der Tatsache, dass traitorientierte Persönlichkeitstheorien nur auf 1 Datenmedium basieren.
Er unterscheidet nach Grad zur möglichen „objektiven Erfassung“ von Persönlichkeitseigenschaften drei Datenarten.
Tags: Cattell, Geschichte
Quelle: S96
146
Kartenlink
0
Welche 3 Datenarten unterscheidet Cattell?
Er unterscheidet nach Grad zur möglichen „objektiven Erfassung“ von Persönlichkeitseigenschaften drei Datenarten.

Cattell unterscheidet 3 Datenarten (mit steigendem Objektivitätsgrad):
  • Q‐Daten (questionnaire data): Selbstbeschreibungen
  • L‐Daten (life data): biographische Merkmale und Verhaltensdaten aufgrund von Fremdratings
  • T‐Daten (test data): Daten aus objektiven Persönlichkeitstests (z.B. Fehlerzahl in einem Labyrinthtest als Maß der Impulsivität)
Tags: Cattell, Persönlichkeit
Quelle: S97
147
Kartenlink
0
Was sind die Bereiche der Persönlichkeit die Cattell klassifizierte?
Welche 2 Ebenen der Verhaltensbeobachtung unterscheidet Cattell?
Ability Traits
Beschreibungsdimensionen, die damit zu tun haben, wie gut eine Leistung vollbracht werden kann (Fähigkeits-, Fertigkeits-, Intelligenzbereich)
Temperament Traits
das "wie" des Verhaltens, dessen "Stil" (Temperaments-Wesenszüge sind z.B. das persönliche Tempo des Denkens und Handelns)
Dynamic Traits
  • Ergic Drives: biologisch verankerte motivationale Komponente wie z.B. Sexualität, Angst, Selbstbehauptung
  • Sentiments und Attitudes: Einstellungen, Haltung, die ebenfalls motivationaler Art sind, aber im Gegensatz zu den Ergic Drives als eher gelernt bzw. verstandesmäßig erworben angesehen werden - etwa poltiische, religiöse Einstellungen
  • Roles: dynamische Merkmale bedingt durch Zugehörigkeit zu unterschiedlichen sozialen Gruppen

States
momentane (situationsspezifische) Gefühle, Stimmungen, Zustände

Nach Pervin:
- Ability Traits und Temperament Traits gehören zur Struktur
- Gruppe der Dynamic Traits gehört zu (motivationalen) Prozessen der Persönlichkeit

2 Ebenen der Verhaltensbeobachtung
  • surface traits
  • beobachtbare Verhaltensweisen, Verhaltenstendenzen
  • source traits
  • Grundwesenszüge gedacht als Grundbausteine der Persönlichkeit, die nur mittels FA zu erschließen sind.
Tags: Cattell, Experiment, Forschung, Persönlichkeit
Quelle: S97
148
Kartenlink
0
Wie entstand der 16 PF-Fragebogen?
(Persönlichkeitstheorie von Cattell)
Annahme: Für Surface Traits (beobachtbare Verhaltensweisen), die zur Unterscheidung von Menschen wichtig sind, gibt es eine begriffliche (sprachliche) Entstehung

Ausgangspunkt: „Psycholexikalische Studie“ von Allport & Odberg (1936)
In der englischen Sprache (gesamt ca. 400.000 Wörter) beschreiben ca. 18.000 Wörter menschliche Eigenschaften.
  • 1. Reduktionsschritt: Um jene Wörter, die momentane Zustandsbilder (z.B. erstaunt), globale Werturteile (z.B. bewundernswert) und Metaphern (z.B. „göttlich“) ausdrücken = 4504 Wörter.
  • 2. Reduktionsschritt: Ausscheiden von Synonyma und seltenen sowie unverständlichen Wörtern - 171 bipolare Gegensatzpaare wie z.B. „alert vs. absent minded“ (wach/munter vs. geistesabwesend).

Datenerhebung (L‐Daten) und Faktorisierung: 100 Erwachsene wurden durch je 2 Bekannte anhand dieser 171 Variablen beurteilt
  • Interkorrelationen zwischen Variablen und subjektive Durchsicht
  • Zusammenfassung auf 35 Variablencluster
  • Faktorenanalyse
  • Ergebnis: 12 Persönlichkeitsfaktoren (source traits).

Datenerhebung: Überprüfung mittels Q‐Daten ergab 16 Faktoren, die zum Teil den 12 Faktoren entsprachen; die 4 neuen Faktoren wurden als „questionnaire specific“ bezeichnet.

Wegen der von Cattell verwendeten schiefwinkeligen Rotation (nicht orthogonale, sondern korrelierende Faktoren) gab es teilweise hohe Zusammenhänge zwischen den
16 Primärfaktoren (bis .60).
Neuerliche Faktorenanalyse führte zu 5 Sekundärfaktoren (sog. second stratum source traits), die „breiter angelegt“ sind – d.h. ein höheres Abstraktionsniveau aufweisen; so umfasst z.B. Extraversion als second stratum source trait 4 first stratum source traits.

Somit ergibt sich ein hierarchischer Aufbau des Persönlichkeitsmodells von Cattell (in der folgenden Abbildung nur am Beispiel von Extraversion veranschaulicht).
Tags: 16 PF, Cattell, Persönlichkeit
Quelle: S98
149
Kartenlink
0
Welche Gemeinsamkeit zeigen die Daten aus T-, L- und Q-Daten hinsichtlich Persönlichkeitsfaktoren?
(Persönlichkeitstheorie von R.B. Cattell)

Datenerhebung (L‐Daten) und Faktorisierung: Ergebnis: 12 Persönlichkeitsfaktoren (source traits).

Überprüfung mittels Q‐Daten ergab 16 Faktoren, die zum Teil den 12 Faktoren entsprachen; die 4 neuen Faktoren wurden als „questionnaire specific“ bezeichnet.

Auch aus sog. Objektiven Tests und Verhaltensdaten (T‐Daten) kann persönlichkeitsrelevante Information (angeblich fälschungssicher) erhoben werden:
  • Die Vp wissen nicht wie Test interpretiert wird - z.B. Vp beantwortet Fragebogenitems, gemessen wird aber
  • Entscheidungszeit je Item - interpretiert als Impulsivität vs. Reflexivität
  • Faktorenanalysen zeigen nur teilweise bekannte Faktoren, z.B. Extraversion, Ängstlichkeit, ansonsten aber völlig neue, die schwierig zu deuten sind (Überschwänglichkeit?; skeptische Zurückhaltung? etc.).

Gemeinsamkeiten der T‐Daten mit L‐ und Q‐Daten kaum gegeben.
Tags: 16 PF, Cattell, Persönlichkeit
Quelle: S99
150
Kartenlink
0
Welche Messinstrumente zur Operationalisierung von source traits werden verwendet? Wo werden diese eingesetzt?
16 PF (16‐Persönlichkeits‐Faktoren‐Test): Weit verbreitet, jedoch massive Kritik (veraltet); entspricht nicht modernen Testgütekriterien.

Seit 1998 gibt es den deutschen 16 PF‐R (revidierte Fassung) von K. Schneewind & J. Graf, der – wie schon so oft – veränderte Faktorenbenennungen enthält; deutliche testtheoretische Verbesserungen enthalten.
- Er besteht aus 184 drei‐kategorialen Items (inkl. 13 Denkaufgaben).

Einsatzbereiche: Organisationsentwicklung, Personalentwicklung und Berufsberatung, klinische Anwendungen (Persönlichkeitsdiagnostik, Paarberatung etc.), individuelle Stressmanagementberatung.
Tags: 16 PF, Cattell, Persönlichkeit
Quelle: S99
151
Kartenlink
0
Was sind die Globalskalen der 16-PF?
5 Sekundärfaktoren („Globalskalen“) des 16 PF‐R

  • Extraversion / Introversion
  • Ängstlichkeit / Gelassenheit
  • Selbstkontrolle / Unbeherrschtheit
  • Unabhängigkeit / Anpassungsbereitschaft
  • Unnachgiebigkeit / Empfänglichkeit
Tags: 16 PF, Cattell, Fragebogen, Persönlichkeit, Test
Quelle: S99
152
Kartenlink
0
Was sind die Primärfaktoren des 16 PF-R?
16 Primärfaktoren
  1. Wärme / Reserviertheit
  2. Hohes logische Schlussfolgern / Niedriges logisches Schlussfolgern
  3. Emotionale Stabilität / Emotionale Instabilität
  4. (auch: Ich-Stärke)
  5. Dominanz / Nachgiebigkeit
  6. (auch: Selbstsicherheit)
  7. Lebhaftigkeit / Ernsthaftigkeit
  8. Regelbewusstsein / Unangepasstheit
  9. Soziale Kompetenz / Schüchternheit
  10. Empfindsamkeit / Sachlichkeit
  11. Wachsamkeit / Vertrauen
  12. Abgehobenheit / Bodenständigkeit
  13. (auch: Geistesabwesenheit: praktisch/kreativ)
  14. Privatheit / Selbstöffnungsbereitschaft
  15. Besorgtheit / Selbstsicherheit
  16. Offenheit für Veränderung (Q1) / Traditionalismus
  17. Selbstgenügsamkeit (Q2) / Soziale Orientierung
  18. Perfektionismus (Q3) / Flexibilität
  19. Anspannung (Q4) / Entspannung


Tags: 16 PF, Cattell, Persönlichkeit
Quelle: S100
153
Kartenlink
0
Welche 3 Indizes für spezielle Antwortstile gibt es im 16 PF-R?
Impression Management (IM)
Hohe Werte: sozial erwünschte Antworten (= sich in
besonders positivem Licht darstellen);
niedrige Werte: Übertreibung negativer Persönlichkeitsmerkmale;
10 Items, z.B.:
  • nie ärgerlich werden, wenn Leute Ansichten
  • äußern, die von eigenen Ansichten sehr abweichen;
  • stets egal, mit wem man sich unterhält, immer ein guter Zuhörer sein.

„Cut‐off‐Werte“ im Beratungskontext liegen bei <5% bzw. >95%, dann wird von einer Beratung abgeraten bzw. erst nach Rücksprache mit der Testperson eine Beratung durchgeführt.

Akquieszenz (AK):
Tendenz, unabhängig vom Iteminhalt, den Statements zuzustimmen.
Hohe Werte: starke Zustimmungstendenz;
niedrige Werte: nicht als Ablehnungstendenz zu interpretieren, da auch die mittlere Antwort (unentschieden) mit einfließt.
Interpretation: z.B. stark ausgeprägtes Bedürfnis nach Akzeptanz (muss jedoch individuell geklärt werden).

Infrequenz (IF):
Häufige Wahl von Antwortalternativen, die im Populationsdurchschnitt selten gewählt wurden.
Hohe Werte: viele "ungewöhnliche" Antworten
Die Bedeutung ist nicht ganz klar, da mehrere Interpretationen möglich sind: z.B.
- "Unfähigkeit sich zu entscheiden"
- "Tendenz, unentschiedene Antworten in der Mittelkategorie zu geben"
- "Lese- bzw. Verständnisschwierigkeiten"
- "Versuch, einen falschen Eindruck zu erwecken"

IF-Wert ist nicht sehr aussagekräftig.
Tags: 16 PF, Cattell, Persönlichkeit
Quelle: S101
154
Kartenlink
0
Was ist die Kritik an der Persönlichkeitstheorie von Cattell?
Zu den 12 Faktoren aus den L‐Daten:
  • Wenige Personen für Wortauswahl in psycholexikalischer Studie zuständig - Feststellung der Synonyme eher willkürlich, Clusterbildung subjektiv.
  • Rotationstechnik der FA (schiefwinkelig) subjektiv.
  • Replikationsversuche bestätigen nur Teil d. Faktoren, generell weniger - Cattell hat „überextrahiert“.

Zum 16 PF (Q‐Daten) und allgemein zum Persönlichkeitsmodell:
  • Konstruktion des Fragebogens (16 PF) nicht sachadäquat dokumentiert.
  • Inhaltliche Bedeutung der Skalen unklar.
  • Wenige Items pro Skala: geringe Reliabilitäten.
  • Itemformulierungen teils veraltet bzw. schlecht übersetzt in deutscher Vers. des 16 PF.
  • Kontrolluntersuchungen - geringe Übereinstimmung: faktorielle Struktur auf Skalen und Itemebene (Items korrelieren mit „fremden“ Skalen höher) nicht bestätigt.
  • Die teils hohen Interkorrelationen zw. Faktoren führten zum Hierarchischen Modell; dieses ist also primär durch die subjektive Rotationstechnik begründet.
  • Übereinstimmung zwischen L‐ und Q‐Daten enttäuschend und mit T‐Daten schlecht.
  • Cattell meint, man müsse die jeweils relevanten Beschreibungsdimensionen aller Traits/States (Ability Traits, Temperament Traits, 3 Dynamic Traits, States) kennen, um
  • individuelles Verhalten in spezifischen Situationen vorherzusagen.Dieser Anspruch ist sicher gerechtfertigt, jedoch stehen Messinstrumente nur zum Teil zur Verfügung.
Tags: 16 PF, Cattell, Kritik, Persönlichkeit
Quelle: S103
155
Kartenlink
0
Was sind "Vorläufer" des Big-Five-Persönlichkeitsmodells?
Die Big Five gehen ursprünglich auf Arbeiten von Norman (1963) zurück, welche – ähnlich wie bei Cattell – auf der sogenannten Sedimentationshypothese (Klages, 1926) beruhen.
  • Diese Hypothese besagt, dass alle relevanten individuellen Unterschiede zwischen Menschen Eingang in die Sprache gefunden haben (Sediment).
  • - Psycholexikalischer Zugang bei der Konstruktion von Persönlichkeitsfragebögen.
  • Norman suchte nach den wichtigsten, voneinander unabhängigen, persönlichkeitsbeschreibenden Faktoren unter Verwendung von Adjektivlisten, Fremdbeurteilungen und Selbstbeurteilungen.
  • Nach Faktorisierung der Daten erhielt er – auch im Rahmen von Replikationsuntersuchungen – 5 Faktoren:- Extraversion- Agreeableness (Verträglichkeit)- Conscientiousness (Gewissenhaftigkeit)- Emotional Stability- Culture
Tags: Big Five, Norman, Persönlichkeit
Quelle: S103
156
Kartenlink
0
Wie entstand die "Big-Five"?
Diese Arbeiten von Norman wurden 1983 von McCrae & Costa wieder aufgegriffen und fortgeführt:
Ausgehend von einem Drei‐Faktoren‐Modell (Neurotizismus, Extraversion, Openness to Experience statt Culture) wurden – ebenfalls aufgrund der Faktorisierung von Selbstbeurteilungen, Fremdbeurteilungen sowie Adjektivlisten – wieder 5 Faktoren extrahiert – und in Nachfolgeuntersuchungen immer wieder (auch in verschiedenen Ländern) bestätigt:
  • Neurotizismus (statt Emotional Stability)
  • Extraversion
  • Openness to Experience (Offenheit für Erfahrungen)
  • Agreeableness
  • Conscientiousness (Gewissenhaftigkeit)

auch genannt: N E O (für Neurotr., Extraversion, Openness)

Die Forschungsarbeiten bzgl. dieser 5 Faktoren mündeten schließlich in der Entwicklung von entsprechenden Persönlichkeitsfragebogen:
  • NEO‐Personality Inventory (NEO‐PI im englischsprachigen Raum) und
  • NEO‐Five Factor Inventory (NEO‐FFI von Borkenau &
  • Ostendorf, 1993, für deutschspr. Raum).
  • NEO-Persönlichkeitsinventar (NEO-PI-R nach Costa & McCrae, von Ostendorf und Angleitner, 2004, für deutschspr. Raum)
Tags: Big Five, Persönlichkeit
Quelle: S104
157
Kartenlink
0
Was sind die Skalen des NEO-FFI?
NEO-Five Factor Inventory (1993, für deutschspr. Raum)
- Big Five
  • Neurotizismus:
  • nicht‐klinische Dimension „emotionale Stabilität vs. Labilität“, welche vorwiegend den Umgang mit negativen Emotionen beschreibt.
  • Extraversion:
  • Wunsch, nicht alleine zu sein, Vorliebe für gesellschaftliche Versammlungen, heiteres Naturell, optimistisch. Costa & McCrae weisen darauf hin, daß Introvertierte nicht als Gegensatz zu Extravertierten zu charakterisieren sind, sondern eher durch ein Fehlen der extravertierten Verhaltenstendenzen (z.B. Extravertierter = freundlich / Introvertierter = eher zurückhaltend als unfreundlich).
  • Offenheit für Erfahrung:
  • Interesse bzw. Ausmaß an Beschäftigung mit neuen Erfahrungen, Erlebnissen und Eindrücken in Bezug auf Bereiche wie z.B. Phantasie, intellektuelle und künstlerische Interessen, Sozialbezüge etc. sowie Wunsch nach Abwechslung, Unkonventionalität oder neuen Handlungsweisen.
  • Verträglichkeit: ("Agreeableness")
  • nicht wertend als „Tugend“ verstanden, sondern beinhaltet Eigenschaften wie Altruismus, Wohlwollen, Mitgefühl, Hilfsbereitschaft, Kooperativität oder Harmoniebedürfnis.
  • Gewissenhaftigkeit: ("Conscientiousness")
  • bezieht sich auf Selbstkontrolle hinsichtlich der Planung, Organisation und Durchführung von Aufgaben unterschiedlichster Art, vor allem in beruflichen und Ausbildungssettings (Zielstrebigkeit, Genauigkeit, Ehrgeiz,Diszipliniertheit etc.).
Tags: Big Five, Persönlichkeit
Quelle: S104
158
Kartenlink
0
Was sind die skalenspezifische Marker-Item des NEO-FFI/Big five?
Skalenspezifische "Marker-Items": jene Items, die auf der jweiligen Dimension die hchste Ladung a besitzen (5 kategorielle Antwortskala)

Neurotizismus:
  • „Ich fühle mich oft angespannt und nervös“ (a = .67)
  • „Ich fühle mich oft hilflos und wünsche mir eine Person, die meine Probleme löst“ (a = .67)

Extraversion:
  • „Ich habe gerne viele Leute um mich herum“ (a = .69)

Offenheit für Erfahrungen:
  • „Poesie beeindruckt mich wenig oder gar nicht“ (a = ‐.61)
  • „Ich finde philosophische Diskussionen langweilig“ (a = ‐.60)

Verträglichkeit:
  • „Manche Leute halten mich für kalt und berechnend“ (a = ‐.65)
  • „Manche Leute halten mich für selbstsüchtig und selbstgefällig“ (a = ‐.62)

Gewissenhaftigkeit:
  • „Ich arbeite hart um meine Ziele zu erreichen“ (a = .67)
  • „Ich versuche, alle mir übertragenen Aufgaben sehr gewissenhaft zu erledigen“ (a = .65)
Tags: Big Five, Persönlichkeit
Quelle: S105
159
Kartenlink
0
Wie ist die Korrelation zwischen den 16 PF-R Globalskalen und NEO-FFI?
Tags: 16 PF, Big Five, Persönlichkeit
Quelle: S106
160
Kartenlink
0
Was kennzeichnet den NEO-PI-R und die Subdimensionen? Was ist durch die Subdimensionen möglich?
NEO-Persönlichkeitsinventar revidierte Form (nach Costa & McCrae von Ostendorf und Angleitner, 2004, für deutschspr. Raum)

  • Unter 5 Hauptskalen des NEO-PI-R finden sich jeweils 6 Subskalen = 30 Facetten (Subdimensionen)
  • Neue Fragebogenverfahren besitzen zu den Big Five hinsichtlich Messqualität (Zuverlässigkeit, Gültigkeit, Objektivität) hervorragende Eigenschaften
  • - auch: gleichartig in verschiedenen Sprachen- stellen ein gültiges, kulturübergreifendes Referenzsystem
  • werden als universelle Transferplattform zw. unterschiedlichen persönlichkeitsdiagnostischen Instrumenten benutzt.

Fast alle faktorenanalytisch entwickelten Persönlichkeitssysteme arbeiten mit Begriffen die als Kombination der "Big Five" und ihrer Facetten angehesen werden können.

Auch die Skalen- und Facettenbezeichnungen der Big Five Inventare werden in jüngster Zeit nicht als starre Nomenklatur gesehen, sondern flexibel dem jeweiligen Einsatzgebiet angepasst - Beispiele (3 Benennungssysteme):

Tags: Big Five, Persönlichkeit
Quelle: S106
161
Kartenlink
0
Was sind die Big Five Facetten nach Fehr?
Für welche Berufe sind diese jeweils sinnvoll/relevant?
Jeder Haupt-Faktor repräsentiert einen "gemeinsamen Zug" der sechs einzelnen Facetten. Die Etikettierung und Interpretation der Faktoren und ihrer Facetten wurden dem Business-Bereich angepasst.

Negative Emotionalität
(sonst oft: Neurotizismus)
"Belastbare" Menschen benötigen stärkere Reize und eine größere Anzahl um aus dem Lot gebracht zu werden, "sensible" Menschen sind recht empfindlich auf Reize.
"Belastbare" wirken oft unzugänglich und unbeeindruckt auf andere (z.B. Fluglotsen, Piloten, Finanzmanagement). "Sensible" v.a. in sozialen Berufen und Dienstleistungsberufen.

Extraversion
Extraversion bezeichnet die Stärke der Tendenz der Zuwendung nach außen.
- Extravertierte Menschen: knüpfen soziale Kontakte, reden mehr (Verkauf, Politik, Künste, Sozialwissenschaften)
- Introvertiert: zurückhaltender, unabhängiger, schweigsam (Production manager, Naturwissenschaftler)

Offenheit für Erfahrung
Kreativität, geistige Beweglichkeit, Neugier, sowie intellektueller Ehrgeiz.
"Kreativer Erneuerer": Innovation, Reform, Abwechslung (Unternehmer, Architekt, Organisationsentwicklung, theoretische Wissenschafter)
"Konservative": traditionsbewusst, Bewahrer von Werten und Traditionen (Finanzmanager, Projektmanager,..)

Verträglichkeit - Kooperation vs. Konkurrenz
Verträglichkeit bezeichnet ein Verhalten, das dazu neigt, anderen entgegenzukommen.
"Nachgiebige" - sucht Harmonie - Kundendienst, Concierge, Dienstleistungspersonal
"kompetitive Antagonist" - Fokus auf persönliche Normen und Anliegen (militärische Führung, Berufe in Werbebranche,...)

Gewissenhaftigkeit
Gewissenhaftigkeit bezieht sich darauf, wie eng sich jemand seinen Aufgaben und Zielen verpflichtet fühlt.
"Gewissenhafter": Selbstdisziplin, Selbstkontrolle, erfolgreiche Karriere (leitende Position, Geschäftsführung, "High Achievers") - wenn zu extrem: "Workaholic"
"Nachlässigkeit": locker, leicht abgelenkt, fördert Kreativität (Ausbildner, Krisenmanager, Diplomaten, Berater)
Tags: Big Five, Fehr
Quelle: S107
162
Kartenlink
0
In welchen Bereichen kann der "Big Five" eingesetzt werden?
Nicht nur sinnvoll für Selbstbeschreibung, sondern auch für Fremdbeschreibung.
Beispiele:
  • Big Five "Profiler" Charakterisierung von Arbeitsplätzen, Marken, Lebensmittel, Autos, etc.
  • "Persönlichkeit" von Farbe rot

Dadurch können Unstimmigkeiten zwischen den Merkmalen durch geeignete Maßnahmen behoben werden, was entscheidend für die Marktakzeptanz bzw. Umsatz sein kann.

Selbstbeschreibung nicht unumstößlich, stellt Verhaltenstendenz dar - dies bedeutet:
  • niedrigere Auslöse- und Reizschwelle für betreffendes Verhalten (Reiz)
  • Verhalten ist häufiger (erhöhte Frequenz)
  • spezifisches Verhalten ist stärker (größere Prägnanz)

Sehr wichtig ist Big Five im Bereich der Personalauswahl und Personalentwicklung. Hier geht es um zwei Richtungen - Bewerber bzw. Bewerberin und dem zukünftigen Arbeitsfeld - es geht also um die perfekte Passung.
Tags: Anwendung, Big Five
Quelle: S111
163
Kartenlink
0
Was kennzeichnet das Big Five Führungsprofil?
Was kennzeichnet das Big Five Verkäuferprofil?
Big Five Führungsprofil
Führungskompetenze setzt im allgemeinen eine
  • erhöhte emotionale Belastbarkeit (N-)
  • stärkere Außenweltzuwendung (E+)
  • größere geistige Offenheit (Beweglichkeit, Neugier, Kreativität / O+)
  • geringeres Entgegenkommen (A-) und
  • überdurchschnittliche Gewissenhaftigkeit (C+) voraus.


(Achtung: dies ist jedoch nicht immer so und ein Profil muss immer als Ganzes bewertet werden.)

Big Five Verkäuferprofil (für Massenprodukte)
Verkäufer sollte folgende Eigenschaften haben
  • erhöhte Werte in Extraversion (E+, besonders in Facette Freundschaft, Geselligkeit, Aktivität und ein wenig Abenteuerlust)
  • extrem hohe seelische Belastbarkeit (N-, da direkter Kundenkontakt)
  • geringe Offenheit, Kreativität, Beweglichkeit (O-)

Tags: Anwendung, Big Five, Persönlichkeit
Quelle: S113
164
Kartenlink
0
Welche Würdigung und Kritik gibt es in Bezug auf "Big Five"?
  • Die gleichartigen, an unterschiedlichen Stichproben faktorenanalytisch gewonnenen Strukturen überraschen – wegen der extremen Stichprobenabhängigkeit korrelativer Untersuchungsmethoden.
  • Im Produktionsprozess des psycholexikalischen Ansatzes – also noch vor Durchführung von Personenbeurteilungen – wurden Persönlichkeitsbereiche systematisch ausgeschlossen: z.B. gesundheits‐ und sexualitätsbezogene Eigenschaften und stark sozial erwünschte bzw. unerwünschte Eigenschaften.
  • Nach Ansicht mancher Psychologen sind daher 5 Faktoren zu wenig, um hinreichend genau differenzieren zu können; es existieren bereits Erweiterungsvorschläge, etwa positive Valenz („hervorragend“), negative Valenz („bösartig“).
  • Die behauptete Universalität des Fünf‐Faktoren‐Modells konnte zwar im Englischen, Deutschen und Holländischen repliziert werden, nicht aber z.B. im asiatischen Raum; -
  • *interkulturelle Gültigkeit (noch) nicht bestätigt**.
Tags: Big Five, Kritik, Persönlichkeit
Quelle: S115
165
Kartenlink
0
Was sind Stärken und Schwächen der traitorientierten, faktorenanalytisch begründeten Ansätze?
Stärken - es handelt sich tatsächlich um fundierte Theorien
  1. Expliziertheit der Begriffe liegt vor (Prüfbarkeit ist gegeben)
  2. Sparsamkeit ist je nach Abstraktionsniveau mehr oder weniger gegeben
  3. Vollständigkeit wurde zumindest angestrebt
  4. Widerspruchsfreiheit innerhalb der einzelnen Theorien ist zum großen Teil gegeben, theorieübergreifend jedoch nur bedingt (u.a. wegen verschiedener Operationalisierung)
  5. Anwendbarkeit und prognostischen Wert kann aufgrund des jahrzehntelangen, vielfachen wie vielfältigen Einsatz der Fragebogen, die auf diesen Theorien basieren, angenommen werden; dass dies nicht zu unkritisch gesehen werden darf, zeigen ständige Weiterentwicklung (Fragebogenrevision und -neukonstruktionen).
  6. Forschungsanleitende Produktivität ist immens hoch
  7. Berücksichtigung verschiedener Datenquellen (L, Q, T und physiologische Maße)
  8. Die Unterschiedlichkeit und Widersprüchlichkeit der Theorien kann großteils auf das unterschiedliche Abstraktionsniveaus der Betrachtungsweise von Traits zurückgeführt werden. Andererseits sind sind aber auch viele Gemeinsamkeiten gegeben - neuere Forschung bemüht sich um Integration.

Schwächen
  1. Konzept des "Persönlichkeitswesenzugs" (Trait-Konzept) geht von transsituativer Konsistenz der Verhaltensweisen aus; dadurch wird die systematische Untersuchung der Beziehung von spezifischen Situationen zu latenten Traits bzw. manifestem Verhalten tlw. vernachlässigt (- Situationismus; Interaktionismus)
  2. Die Faktorenanalyse mit ihren grundlegenden Problemen ist nur bedingt geeignet, ein allgemeingültiges Beschreibungssystem für Persönlichkeit zu begründen. (Probleme: Stichprobenabhängigkeit, Roationstechniken, Faktorenextraktion, Interpretation, Variablenbezug) - Interpretationsuneindeutigkeit faktorenanalytischer Lsungen
  3. Das Vorliegen einer Fülle von inhaltlich nebeneinander stehen Einzelstudien, die selten eine Überlappung bezüglich gemeinsamer Variablen aufweisen (meist univariat angelegt);
  4. - Zusammehänge bzw. Beziehungen von Trait-Faktoren untereinander können nicht oder nur selten adäquat untersucht werden.
Tags: Faktorenanalyse, Kritik, Trait-Modell
Quelle: S116
166
Kartenlink
0
Was ist die Kritik am "lexikalischen Ansatz"?
(nach Asendorpf, 1996)
Der Nutzen des (psycho)‐lexikalischen Ansatzes für die Persönlichkeitspsychologie ist begrenzt, da es sich nur um eine Beschreibung der Ähnlichkeitsstruktur von Eigenschaften handelt, die alltagspsychologisch repräsentiert sind (so fehlt z.B. Ambiguitätstoleranz).

Was sich nach alltagspsychologischer Wahrnehmung ähnelt, muss nach wissenschaftlichen Kriterien noch lange nicht ähnlich sein (im Sinne einer funktionalen Ähnlichkeit).

Asendorpf: Wale erscheinen Thunfischen ähnlicher als Menschen, obwohl sie nach biologischen Kriterien (als Säugetiere) den Menschen ähnlicher sind.

Schlussfolgerung:
  • Die Persönlichkeitspsychologie kommt nicht umhin, in der Anfangsphase mit alltagspsychologischen Konzepten zu arbeiten,
  • muss diese aber letztlich überwinden, um in Vorhersage und Erklärung individueller Besonderheiten besser zu werden als die Alltagspsychologie;
  • durch Analyse der Funktionen von Eigenschaften (z.B. im Rahmen eines Informationsverarbeitungsmodells).
Tags: 16 PF, Big Five, Kritik
Quelle: S117
167
Kartenlink
0
Wer ist Hans-Jürgen Eysenck? Wo und was arbeitete er?
Biographie:
  • Er wurde 1916 in Deutschland geboren, seine
  • Eltern waren Schauspieler.
  • 1934 emigrierte er nach England.
  • Sein Wunschstudium war Physik, tatsächlich studierte er englische und französische Literatur, Geschichte und Psychologie.

Eysenck wurde durch Psychologen wie Ch. Spearman
(2‐Faktoren‐Theorie d. Int.), C. Burt (Hierarchisches
Intelligenzstrukturmodell), C. Hull (Lerntheorie), E.
Kretschmer (Typologie) und I. Pawlow (Klassische
Konditionierung) beeinflußt - quantitativer & experimenteller Zugang zur Psychologie.
  • 1940 wurde er PhD.
  • 1950 kam es zur Gründung einer Abteilung für Klinische Psychologie am Londoner Maudsley Hospital (erste in England), wo er ab 1955 Professor war.
  • Eysenck ist Verfasser zahlreicher (auch populärwissenschaftlicher) Bücher (z. B. „Die Ungleichheit der Menschen“ etc.).
  • Unter anderem entwickelte er Fragebögen (z.B. Eysenck Personality Inventory, EPI).

Eysencks Arbeit ist ausgezeichnet durch zusätzliche experimentelle Analysen; er gelangt damit zu Aussagen, die über das mittels L‐, Q‐, oder T‐Daten Erfassbare hinausgehen und schafft damit (wie kein anderer Persönlichkeitstheoretiker) eine Verbindung zw. Differentieller, Allgemeiner und Experimenteller.
Tags: Eysenck, Persönlichkeit
Quelle: S118
168
Kartenlink
0
Was kennzeichnet die Persönlichkeitshteorie von Eysenck?
Eysencks Arbeit ist ausgezeichnet durch zusätzliche experimentelle Analysen; er gelangt damit zu Aussagen, die über das mittels L‐, Q‐, oder T‐Daten Erfassbare hinausgehen und schafft damit (wie kein anderer Persönlichkeitstheoretiker) eine Verbindung zw. Differentieller, Allgemeiner und Experimenteller Psychologie.

Persönlichkeitstheorie ist gekennzeichnet durch
  • 3 orthogonale „Superfaktoren“ (Sekundärfaktoren: „Extraversion / Introversion“, „Neurotizismus“ sowie „Psychotizismus“),
  • das Bemühen um biologische Fundierung (Untermauerung) und
  • die „hypothetico‐deduktive method“ (FA – neben anderen Auswertungsmethoden – als hypothesengenerierende und hypothesentestende Methode).
Tags: biologische Fundierung, Eysenck, Persönlichkeit, Theorie
Quelle: S118
169
Kartenlink
0
Was ist der Ausgangspunkt und das Ergebnis der Persönlichkeitstheorie von Eysenck?
Ausgangspunkt der Forschung:
  • Als Daten werden Verhaltensratings, Fragebogendaten, und Objektive Tests verwendet.
  • Im Unterschied zu Cattell bestanden die ersten Stichproben Eysencks aus psychiatrischen Fällen; wesentliche Bemühungen galten dann der Frage, ob die dort extrahierten Faktoren auch auf psychiatrisch unauffällige Personen übertragbar sind.

Resultat: Hierarchisches Modell (ähnlich wie bei Cattell) mit 4 Ebenen
  1. Spezifische Reaktionen (unterste Ebene)
  2. Habituelle (gewohnheitsmäßige) Reaktionen,
  3. Trait‐Niveau (Eigenschafts‐Niveau: Primärfaktoren),
  4. Typus‐Niveau (Sekundär‐ od. Superfaktoren / höchste Ebene)
Tags: biologische Fundierung, Eysenck, Persönlichkeit
Quelle: S119
170
Kartenlink
0
Was sind die 3 Superfaktoren nach Eysenck?
3 orthogonale (= unabhängige) Superfaktoren
  • Extraversion/Introversion
  • Neurotizitmus
  • Psychotizismus
Tags: Eysenck, Persönlichkeit, Superfaktoren
Quelle: S118
171
Kartenlink
0
Was ist "Psychotizimus"? (biologische Fundierung, Kritik, Anwendung)
Ein Superfaktor aus Eysencks Persönlichkeitstheorie

Psychotizismus (am relativ schlechtesten abgesichert):
  • Aus empirischen Befunden wird die Annahme eines Kontinuums zwischen normal bis psychotisch abgeleitet (vgl. Kretschmer).
  • Da kein weiterer Faktor zur Unterscheidung von Schizophrenen und Manisch‐Depressiven identifizierbar war, wurde angenommen, dass auf dem Psychotizismusfaktor eine Abfolge der Gruppen Normale - Schizophrene - Manisch‐Depressive bestehe.
  • Merkmale:Wahnideen, Halluzinationen, Beziehungswahn, jähe Stimmungsschwankungen, Denk‐ und Gedächtnisstörungen, gesteigerte Selbstmordimpulse, soziale Kontaktlosigkeit und einem „Grundton des Misstrauens“ gegenüber der Welt im Allgemeinen
  • Erst viel später (Eysenck & Eysenck, 1972): Versuch einer Skalenkonstruktion (Fragebogen mit 20 Items), die v.a. zwei Bedingungen genügen sollte:
  • - Unabhängigkeit der Dimension von den beiden anderen Superfaktoren;- Diskriminationsmöglichkeit der Psychotiker von Normalen und Neurotikern.
  • Iteminhalte: hohe Eigenständigkeit, sich nicht um andere Leute kümmernd, störend / lästig, nicht anpassungsbereit, grausam / inhuman, gefühlsarm / unempfindlich etc. Es sind keine Items mit psychotischen Symptomen im engeren Sinn vorhanden, weil es ja nur um die psychotische Tendenz (auch im „Normalbereich“) geht.
  • Biologische Fundierung: eigentlich keine
  • - Eysenck (1977) schließt aufgrund der positiven Zusammenhänge von P‐Werten mit männlichem Geschlecht, mit sozial abweichendem Verhalten und mit dem Auftreten einer Chromosomen‐Aberration (XYY: Hochwuchs in Kombination mit gestörtem Sozialverhalten) auf eine primär genetische Determination dieses Faktors.

Kritik an Skala:
  • Validität und Reliabilität der P‐Skala erfüllen keineswegs alle Erwartungen.
  • Auch der Anspruch auf Eigenständigkeit der P‐Dimension lässt sich nicht absolut aufrechterhalten (r = .40 mit Neurotizismus).
  • DAVIS (1974) meint zu recht, ob nicht anstelle von Psychotizismus von Psychopathie gesprochen werden sollte, weil dieser Begriff genau den gefühlskalten, unangepassten,
  • aggressiven und asozialen Menschen bezeichnet (der in der Folge auch dazu tendiert, mit dem Gesetz in Konflikt zu geraten).

Anwendung:
  • Die P‐Skala wurde tatsächlich häufig in der forensischen Psychologie (Delinquenzforschung) eingesetzt.
  • Nach Eysenck & Eysenck (1968) konnte die sie relativ gut zwischen 603 Strafgefangenen und verschiedenen unbescholtenen Kontrollgruppen diskriminieren – besser als E‐ und N‐Skala. (Ergebnis wurde von Eysenck & Eysenck, 1977, neuerlich bestätigt.)
  • Allerdings ist der Vergleich „Häftlinge‐Unbescholtene“ methodische zweifelhaft, weil nicht klar ist, ob die Selbstbeschreibung auf der P‐Skala als Ursache oder Wirkung der Haft zu sehen ist.
Tags: biologische Fundierung, Eysenck, Persönlichkeit
Quelle: S119
172
Kartenlink
0
Was ist "Neurotizismus"? (biologische Fundierung,  Genese, Behandlung, Anwendung)
Ein Superfaktor der Persönlichkeittheorie von Eysenck

Neurotizismus (N): besser abgesichert als Psychotizismus.
  • Grundlage: Untersuchung von Eysenck (1944) an 700 als „neurotisch“ klassifizierten Soldaten; Faktorisierung von Fremdratings auf Basis von 37 biploaren Items ergab 4 Faktoren, die insgesamt nur 40% der Gesamtvarianz aufklärten: 1.F.= „N“, 2. F. = „E/I“ (Extraversion/Introversion).
  • Beschreibung von Personen mit hohen N‐Werten: emotional labil, überempfindlich; Schwierigkeit, nach negativen emotionalen Erfahrungen in die „Normallage“ zurückzukehren; eine allgemein negative Affektlage mit häufigen Klagen über diffuse somatische Beschwerden. Trotz hoher N‐Werte können Personen durchaus gesellschaftlich angepasstes Verhalten zeigen.
  • Itembeispiele:
  • - Fühlen Sie sich manchmal glücklich, manchmal deprimiert, ohne offensichtlichen Grund?- Kann man Ihre Gefühle leicht verletzen?- Sind Sie irritierbar?- Glauben Sie manchmal, minderwertig zu sein?- Leiden Sie unter Schlaflosigkeit?
  • Biologische Grundlage von affektiver Labilität (N): Limbisches System (LS) = phylogenetisch alter Teil der Hirnrinde, der die Zusammenarbeit von Sympathikus und Parasympathikus beeinflusst.
  • Emotional Labile zeigen bei niedriger Reizintensität bereits ein Ansprechen des Limbischen System (+ Folgereaktionen).
  • Emotional Stabile besitzen (unter vergleichbaren Bedingungen) eine deutlich höhere Erregungsschwelle.
  • Eysenck: Neurotisches Verhalten bestehe hauptsächlich aus starken Reaktionen des autonomen Nervensystems auf externe Reize, die zunächst unbedingten Charakter haben, in der Folge aber bedingten Charakter annehmen können.

Genese von Neurosen: Bei Personen mit hohen N‐Werten besteht daher eine Neigung, bei traumatischen Erlebnissen eine Neurose zu entwickeln:
  1. Traumatisches Erlebnis (UCS; z.B. unerwartetes lautes Geräusch) führt zu starker vegetativer (unbedingte) Reaktion (UCR; z.B. Erschrecken, Zittern, Schweiß);
  2. ein ursprünglich neutraler Stimulus (NS; z.B. Betreten eines Lifts), der zufällig mindestens einmal mit dem traumatischen Erlebnis verknüpft war, löst nun auch allein eine ähnliche vegetative Reaktion aus (konditionierte Reaktion, CR; Lift wurde zu CS)
  3. Vermeidung von CS bewirkt, dass es kaum zu Löschung der Konditionierung kommen kann (Neurose bleibt lange bestehen; Spontanremissionen sind jedoch möglich).

Behandlung von Angstneurosen z.B. durch systematische Desensibilisierung: Schrittweise Gewöhnung an den CS, der schließlich keine CR mehr auslöst.
Tags: biologische Fundierung, Eysenck, Neurotizismus, Persönlichkeit
Quelle: S120
173
Kartenlink
0
Was ist "Extroversion/Introversion" nach Eysenck? (biologische Fundierung,  Kennzeichen, Anwendung)
Neurotizismus (N) und Extra‐ / Introversion (E/I): besser abgesichert als Psychotizismus.
Grundlage: Untersuchung von Eysenck (1944) an 700 als „neurotisch“ klassifizierten Soldaten; Faktorisierung von Fremdratings auf Basis von 37 biploaren Items ergab 4 Faktoren, die insgesamt nur 40% der Gesamtvarianz aufklärten: 1.F. = „N“, 2. F. = „E/I“.

Die Begriffe Extraversion und Introversion gehen auf den schweizer Psychiater C. G. Jung zurück („psychische Grundfunktionen“).

Eysenck & Eysenck (1980): E/I‐Dimension findet sich in allen Kulturen (Japan, Nigeria, Indien, Ungarn, Griechenland etc.); ja selbst bei Primaten (Chamove et al., 1972).

Beschreibung der Dimension E/I:
  • E‐Pol: gesellig, viele Freunde, eher impulsiv, optimistisch, Gefühle nicht immer unter Kontrolle, teilweise unzuverlässig.
  • I‐Pol: zurückhaltend‐introspektiv, reserviert, distanziert, nicht impulsiv, eher ernste Lebenseinstellung, Gefühle unter Kontrolle, großer Wert auf ethische Normen.

Eysencks theoretische Konzepte zu N und E/I haben sich im Lauf der Jahre verändert: Generell ist eine Abkehr von ausschließlich lerntheoretischen Vorstellungen und eine
Hinwendung zur Verankerung in neuroanatomischen Systemen erkennbar.

Theorie zur E/I‐Dimension: Alle zentralnervösen Prozesse seien durch ein genetisch determiniertes, interindividuell unterschiedliches Verhältnis von Erregungs‐ und
Hemmungsprozessen
gekennzeichnet (vgl. auch Pawlow & Hull).

Biologische Grundlage:
ARAS (aufsteigendes retikuläres aktivierendes System), das die Aktivierung steuert. Bei der Entstehung von S‐R‐Verbindungen erfolgen in den impulsleitenden Nervenbahnen sowohl …
  • exzitatorische Veränderungen (positive, erleichternde), die für Konditionierung (Lernen) maßgeblich sein sollen, als auch
  • inhibitorische Prozesse (negative, hemmende), die für Löschung (Verlernen, Vergessen) maßgeblich sind.


Wird der Grad der Stimulation jedoch zu hoch (es wird den Personen unangenehm), treten sog. Transmarginale Hemmungen im Sinner einer Schutzfrunktion ein (bei E "später" als bei I), die einer weiteren Aktivierung entgegenwirken.
Tags: Extraversion, Eysenck, Persönlichkeit
Quelle: S122
174
Kartenlink
0
Was sind "transmarginale Hemmungen" und welche Befunde gibt es dazu?
Persönlichkeitstheorie von Hans‐Jürgen Eysenck: Extraversion/Introversion

Wird der Grad der Stimulation zu hoch (d.h. es wird den Personen unangenehm), treten sog. Transmarginale Hemmungen (blaue Pfeile im Sinne einer Schutzfunktion ein (bei E „später“ als bei I), die einer weiteren Aktivierung entgegenwirken.

Aus dieser biologischen Fundierung der E/I‐Dimension lassen sich viele – auch unerwartete – Voraussagen treffen, die empirisch prüfbar sind.

Ausgewählte Ergebnisse zur E/I‐Dimension (Befundlage zwar nicht immer eindeutig, die Mehrzahl gehen in die angegeben Richtung)

Erregungsschwellen: Sind bei I niedriger, da sie höheres habituelles Aktivierungsniveau haben. Beispiele:
  • „Lemon Drop Test“ (Eysenck, 1973): Bei Gabe eines Zitronentropfens auf die Zunge haben I im Durchschnitt die höheren Speichelratenzunahmen als E.
  • Pupillenreflex (ausgelöst durch plötzliches Licht), ist bei I wesentlich rascher als bei E (Holmes, 1967).
  • E tolerieren höhere Schmerzreize als I (Hentschel, 1977) .

Gedächtnisleistungen: sind bei I besser.
  • Nach Howarth & Eysenck (1968) sind Lernprozesse gekennzeichnet durch temporären Anstieg von kortikalem Arousal. Dieses Arousal ist bei E habituell niedriger, weshalb Lernkonsolidierungsprozesse bei E schwächer ablaufen.

Psychopharmakologie:
  • E können leichter sediert werden als I (Eysenck, 1963; Wilson, 1978).
  • Antidepressiva bewirken bei I ein Verschiebung des Verhaltens in Richtung E (Eysenck, 1963; Wilson, 1978), da das kortikale Arousal durch bestimmte Formen von Antidepressiva gesenkt wird.
  • Stimulantien bewirken bei E eine Verschiebung des Verhaltens in Richtung I (Eysenck, 1963; Wilson, 1978).
  • Erklärung: Kortikales Arousal wird durch best. Stimulantien erhöht - E erreichen Arousal‐Niveau von I.

Berufswahl
  • E bevorzugen Berufsfelder, in denen sie mit Menschen zu tun haben wie z.B. Verkauf, Krankenpflege oder lehrende Tätigkeiten (Wilson, 1978)
  • I bevorzugen eher "einzelgängerische" Aufgabenbereiche wie z.B. Kunst, Forschung, Mathematik oder Ingenieurswesen (Wilson, 1978)

Sexualverhalten
von Studenten: Alle "partnerorientierten" Aktivitäten sind bei Extravertierten zu allen Erhebungszeitpunkten häufiger!
Tags: biologische Fundierung, Extraversion, Eysenck, Persönlichkeit
Quelle: S122
175
Kartenlink
0
Was zeigt die Untersuchung nach Eysencks Superfaktoren und der Klassifikation von Nationen?
Eysenck hat mit seiner Theorie die Persönlichkeitsforschung auch in Grenzbereiche vorgetragen, die ansonsten eine Domäne ganz anderer Wissenschaftsdisziplinen sind. Als Beispie sei die Arbeit von Lynn & Hampson (1975) zur Klassifikation von Nationen erwähnt, die von objektiven demographischen und volkswirtschaftlichen Daten ausgeht.

Erhoben wurden 12 objektive demographische Indikatoren für N und E/I von Nationen.
- N: Alkoholismus, Selbstmordrate etc.
- E: hohe Scheidungsraten, starker Zigarettenkonsum etc.

Nach Faktorisierung können Nationen im Koordinatenkreuz von N und E/I eingetragen werden (vgl. Abb.)

  • Platzierung von USA u. Japan entsprechen dem „Common Sense“.
  • N↑ bei Nationen, die im 2. Weltkrieg besiegt wurden (D, A, Japan).
Tags: Extraversion, Eysenck, Forschung, Neurotizismus, Persönlichkeit
Quelle: S125
176
Kartenlink
0
Inwiefern modifizierte Gray die Theorie von Eysenck?
Nach Gray (1982) lassen sich drei Verhaltenssysteme unterscheiden, die in emotionalen Situationen eine Rolle spielen. Sie könnten – so meint Gray – eine neuroanatomische Entsprechung besitzen.

Gray: Extravertierte sind nicht grundsätzlich schwerer zu konditionieren als Introvertierte, vielmehr sind E unempfindlicher gegenüber Strafe (od. deren Androhung) und sensitiver für Belohnung (vgl. unten).

Indiv. Unterschiede in der Stärke des Verhaltenshemmungs‐ und Verhaltensaktivierungssystems bilden 2 unkorrelierte
Dimensionen (vgl. Abb.), die bei der Messung von N und E als konfundierte Größen miterfasst werden:
  • Gehemmtheit bzw. Ängstlichkeit und
  • Aktiviertheit bzw. Impulsivität

(entspricht den Eysenckschen Faktoren E und N, jedoch sind Achsen um 45 Grad verdreht).

Gehemmtheit bzw. Aktiviertheit stellen den jeweils steilsten Anstieg in Sensitivität gegenüber Bestrafungs- bzw. Belohnungsreizen dar.
Vorteil der Theorie: Indiv. Differenzen in N und E werden innerhalb eines Bezugsrahmens (Sensitivität gegenüber Bestrafung / Belohnung) dargestellt.
Tags: Extraversion, Eysenck, Gray, Persönlichkeit
Quelle: S125
177
Kartenlink
0
Welche ähnlichen Persönlichkeitsmerkmale gibt es zu "Extraversion"?
  • Sensation seeking (Zuckerman, 1979)
  • Tendenz, relativ neue, stimulierende Situationen (Sinneseindrücke) aufzusuchen u. sie zu erkunden.
  • Temperamentsmerkmale  Aktivität/Reaktivität (Strelau, 1986)
  • - Reaktivität: Eigenschaft, die die Intensität und das Ausmaß der individuellen Reaktionen determiniert. Bei hochreaktiven Personen rufen bereits wenig intensive Reize eine erkennbare Reaktion hervor oder reichen aus, um eine Reaktion zu unterbrechen; Niedrigreaktive haben geringe Sensibilität (schwache Reaktionen bei starken Reizen) und hohe Beständigkeit (Protektive Schutzhemmung erst bei intensiven Reizen).- Aktivität: Eigenschaft, die sich auf die Intensität und Häufigkeit bezieht, mit der Personen Handlungen ausführen od. Aufgaben in Angriff nehmen. Sie ist bei Niedrigreaktiven größer, da diese Personen Stimulationen suchen, um ein angenehmes Aktivierungsniveau zu erreichen.
Tags: Aktivität, Extraversion, Eysenck, sensation seeking, Strelau, Zuckerman
Quelle: S126
178
Kartenlink
0
Was versteht man unter "sensation seeking"? Was ist die "Sensation seeking scale"?
(Zuckerman, 1979): Tendenz, relativ neue, stimulierende Situationen (Sinneseindrücke) aufzusuchen u. sie zu erkunden.

Ausgangspunkt (wie bei Eysenck): Es gibt Unterschiede im Bedürfnis nach Stimulation.
Personen suchen verschieden stark nach solchen Stimulationen, um sich wohl zu fühlen (hedonischer Tonus).

Biologische Fundierung: Noradrenerges System. Es wird ein Zusammenhang mit Aktivität monoaminer Neurotransmitter postuliert, etwa derart, Sensation‐Seeker hätten eine habituell niedriger Katecholaminaktivität; sie suchen über neue Sinneseindrücke in den „optimalen Bereich“ zu gelangen, während Nicht‐Sensation‐Seeker sich bereits dort befänden.

Messung von Sensation Seeking mit der 4 Faktoren umfassenden Sensation Seeking Scale (SSS):

SSS‐Gesamtmaß korreliert mit Extraversion und Psychotizismus in Höhe von 0.3 bis 0.4.
Tags: Extraversion, Eysenck, Psychotizismus, sensation seeking, Stimmung, Zuckerman
Quelle: S126
179
Kartenlink
0
Was kennzeichnet die Temperamentsmerkmale Aktivität und Reaktivität? Wie werden diese gemessen?
(Strelau, 1986)
  • Reaktivität: Eigenschaft, die die Intensität und das Ausmaß der individuellen Reaktionen determiniert. Bei hochreaktiven Personen rufen bereits wenig intensive Reize eine erkennbare Reaktion hervor oder reichen aus, um eine Reaktion zu unterbrechen;
  • Niedrigreaktive haben geringe Sensibilität (schwache Reaktionen bei starken Reizen) und hohe Beständigkeit (Protektive Schutzhemmung erst bei intensiven Reizen).
  • Aktivität: Eigenschaft, die sich auf die Intensität und Häufigkeit bezieht, mit der Personen Handlungen ausführen od. Aufgaben in Angriff nehmen. Sie ist bei Niedrigreaktiven größer, da diese Personen Stimulationen suchen, um ein angenehmes Aktivierungsniveau zu erreichen.

Als physiologisches Substrat werden von Strelau Unterschiede in der „Arbeitsweise der Nervenzellen“ im zentralen und autonomen Nervensystem genannt (auch im endokrinen
System).

Messung (u.a. auch mittels Fragebogen) von 3 Eigenschaften des Nervensystems auf Verhaltensebene: Strelau Temperament Inventory (STI)
Stärke der Exzitation (SE) Je größer SE, desto weniger sensibel ist Individuum gegenüber Stimulation (SE hoch = Reaktivität hoch) - z.B. Frage nach Fähigkeit, unter ablenkenden Bedingungen effizient arbeiten zu können.
Stärke der Inhibition (SI) Leichtigkeit, mit der konditionierte Hemmungen ausgebildet bzw. aufrechterhalten werden können. SI erfaßt Fähigkeit, auf motorischer, verbaler und emotionaler Verhaltensebene Zurückhaltung zu üben (Handlungen zu unterbrechen od. zu verzögern).
Mobilität nervlicher Prozesse (M) Fähigkeit, schnell und adäquat auf Änderungen in Umwelt reagieren zu können (Flexibilität).

Korrelationen mit Eysenckschen Faktoren:
  • Extraversion = SE(.34), SI(‐.11), M(.45);
  • Neurotizismus = SE(‐.42), SI(‐.28), M(‐.21);
  • Psychotizismus = SE(‐.02), SI(‐.30), M(.00)
Tags: Aktivität, Extraversion, Eysenck, Neurotizismus, Persönlichkeit, Psychotizismus, Strelau
Quelle: S127
180
Kartenlink
0
Was sind die Gemeinsamkeiten der 3 biologisch fundierten Persönlichkeitstheorien?
Gemeinsamkeiten der Theorien von Eysenck, Zuckerman und Strelau:
Individuen unterscheiden sich aufgrund ihrer Reagibilität auf externe oder interne Reize. Ein mittleres Arousal‐Niveau wird persönlich als angenehm empfunden.
  • Extravertierte, Sensation Seeker und Niedrigreaktive tendieren zu schwachen Reaktionen - intensivere Reize werden „aufgesucht“, da sie ihr Erregungsniveau in den hedonisch positiven Bereich bringen.
  • Introvertierte, Nicht‐Sensation‐Seeker und Hochreaktive tendieren zu starken Reaktionen - intensivere Reize werden „vermieden“, da sie ihr Erregungsniveau über den hedonisch positiven Bereich erhöhen.

Integration der Konzepte (trotz Eigenständigkeit) scheint möglich.

Bewertung der postulierten biologischen Grundlagen (nach Brody, 1988):
Befriedigende Erklärung in keiner der Theorien, da keine Theorie konsistent und widerspruchsfrei durch Forschungsergebnisse gestützt. Dennoch ist Suche nach biologischen Grundlagen von großer Bedeutung, weil
  • ... Belege für genetische Einflüsse auf Persönlichkeit existieren, denen biologische Strukturen des Organismus zugrunde liegen müssen;
  • ... ein volles Verständnis von Persönlichkeitsunterschieden (und deren Erklärung) ohne Berücksichtigung der komplexen Zusammenhänge zu biologischen Vorgängen nicht möglich scheint und
  • ... gerade biologisch orientierte Persönlichkeitstheorien die Wechselwirkungen zwischen Situations‐ und Persönlichkeitsmerkmalen genauer spezifizieren können, so
  • dass validere Verhaltensvorhersagen möglich werden.

Methodenkritisch ist anzumerken (Asendorpf, 1996): Fragebogen, in denen subjektives Erleben über physiologische Erregungs‐ und Hemmungsprozesse erfragt wird, helfen auf der Suche nach physiologischen Parametern nicht weiter, weil der Zusammenhang zu den tatsächlich ablaufenden physiologischen Prozessen zu gering ist.
Tags: biologische Fundierung, Eysenck, Strelau, Zuckerman
Quelle: S128
181
Kartenlink
0
Was sind die Kennzeichen und Grundlagen der kognitiven Persönlichkeitskonstrukte?
Kennzeichen: Persönlichkeit wird als informationsverarbeitendes dynamisches System verstanden.

  • Klassische Forschungsbereiche: Wahrnehmung, Gedächtnis, Sprache, Denken.
  • Anlass: Die Unzulänglichkeiten der mechanistischen S‐R‐Theorien - „Kognitive Wende“.
  • Persönlichkeitsmerkmale werden hier also als die individuumspezifische, stabile und situationsübergreifend wirksame bzw. bevorzugte Art der Informationsverarbeitung verstanden (z.B. Denktypen, Denkstile, kognitive Strategien).
  • Theoretischen Anspruch, der nicht oder kaum realisiert ist: Verschiedene kognitive Konstrukte sollen zu „Struktursystemen“ zusammengefasst werden, die schließlich „Persönlichkeit“ ausmachen.
  • Beim kognitiven Ansatz stehen die formalen Besonderheiten und interindividuellen Varianten der Informationsverarbeitung im Vordergrund, während beim allgemeinpsychologischen Zugang inhaltliche Aspekte (was oder wie viel wird verarbeitet) untersucht werden.
Tags: Informationsverarbeitung, kognitive Persönlichkeitskonstrukte, Persönlichkeit
Quelle: S129
182
Kartenlink
0
Was versteht man unter Feldabhängigkeit/Feldunabhängigkeit?
Konstrukt geht auf Witkin et al. (1954) zurück; bereits bis Mitte der 70er Jahre lagen ca. 2000 einschlägige Publikationen vor. Das Konstrukt hat im Laufe seiner Erforschung bedeutsame inhaltliche Änderungen erfahren, wesentlichen Entwicklungsschritte waren:
  1. Ursprünglich wurde unter Feld(un)abhängigkeit die relative Bedeutung einander widersprechender vestibulärer und visueller Sinneseindrücke beim Versuch, die Senkrechte
  2. im Raum herzustellen, verstanden.Etwa folgende Testanordnung (RFT: „Rod and Frame Test“, vgl. Abb.) wurde zur Messung eingesetzt: In einem verdunkelten Raum sollte ein schräggestellter Leuchtstab, der sich in einem gekippten quadratischen Leuchtrahmen befindet, von den Tpn, die zusätzlich in einem seitlich gekippten Stuhl sitzen, senkrecht gestellt werden.Feldabhängigkeit war definiert als: Relative Dominanz visueller Sinneseindrücke gegenüber vestibulären (den Gleichgewichtssinn betreffenden); Feldunabhängigen Personen gelang es leichter, den Stab in die Senkrechte zu bringen.
  3. Erweiterung auf höhere kognitive Leistungen: Fähigkeit, einfache Figuren in komplexen Reizvorlagen zu identifizieren.
  4. Testmaterial: Embedded Figures Test (EFT) – gemessen wurde die Bearbeitungszeit für eine Aufgabenserie.Die Berechtigung dazu wurde aus Korrelationen zwischen EFT und RFT (od. ähnlichen Raumorientierungstests) in Höhe von ca. 0.21 bis 0.66 abgeleitet (Tests laden auch gemeinsam in einem Faktor).Aus der Addition von Maßen von Raumorientierungstests und EFT wurde ein „Perceptual Index“ (PI) gebildet, der nun für Feldabhängigkeit steht und als Ausdruck eines kognitiven Stils (Pole: differenziert bis global) interpretiert wird.Differenzierung: Kontrolle von Impulsen; Separierung von Fühlen, Wahrnehmen, Denken, Handeln usw.
  5. Neuerliche Ausweitung des Begriffs durch Goodenough (1978):
  6. Feldunabhängigkeit bedeutet das Ausmaß, in dem Individuen unabhängig (autonom) von der sie umgebenden Welt „funktionieren“, d.h. agieren od. reagieren.Feldunabhängige besitzen „internal frames of reference“ (internale Bezugssysteme), die sie zur Verarbeitung einlaufender Informationen verwenden;Feldabhängige sind orientiert an „external frames of reference“ und daher weniger „aktiv“ in der Verarbeitung einlaufender Informationen. Diese Bedeutungserweiterung wurde aus Begleituntersuchungen abgeleitet:Feldabhängige tendieren mehr als Feldunabhängige …- zu undifferenzierten Abwehrmechanismen,- dazu, Aggressionen direkt und unkontrolliert auszudrücken,- zu intuitiven, nicht‐hypothesentestenden Methoden,- zu eher rücksichtslosem Fahrverhalten (erhöhte Unfallhäufigkeit),- zu anderer Studien‐ und Berufswahl:Feldabhängige: Sozialarbeit; Grundschullehrer; Klinische Psychologie etc.Feldunabhängige: Physik; Mathematik; Kunst; Architektur; Ingenieurswiss.; Experimentelle Psychologie etc.
Tags: Feldabhängigkeit, kognitive Persönlichkeitskonstrukte, Witkin
Quelle: S130
183
Kartenlink
0
Inwiefern unterscheiden sich feldabhängige von feldunabhängigen Personen (Konstrukt durch Goodenough (1978)?
Feldabhängige tendieren mehr als Feldunabhängige …
  • zu undifferenzierten Abwehrmechanismen,
  • dazu, Aggressionen direkt und unkontrolliert auszudrücken,
  • zu intuitiven, nicht‐hypothesentestenden Methoden,
  • zu eher rücksichtslosem Fahrverhalten (erhöhte Unfallhäufigkeit),
  • zu anderer Studien‐ und Berufswahl:
  • - Feldabhängige: Sozialarbeit; Grundschullehrer; Klinische Psychologie etc.- Feldunabhängige: Physik; Mathematik; Kunst; Architektur; Ingenieurswiss.; Experimentelle Psychologie etc.
Tags: Felabhängigkeit, kognitive Persönlichkeitskonstrukte, Persönlichkeit
Quelle: S131
184
Kartenlink
0
Was ist die Kritik am Konstrukt Feldabhängigkeit bzw. ‐unabhängigkeit?
  • Handelt es sich wirklich um einen kognitiven Stil (= dynamischer Funktionsfaktor, der Auskunft über bestimmte kognitiv‐perzeptive Prozesse gibt)?
  • Oder gibt das Konstrukt eher Auskunft über Eigenschaften der Person bzw. Leistungsfähigkeit?
  • Die Abgrenzung zu bekannten Persönlichkeitskonstrukten (z.B. Intelligenz) ist zweifelhaft; unverständlich ist, dass die Schule um Witkin sich nicht um experimentelle oder statistische Kontrolle von „g“ oder anderen Intelligenzmaßen bemühte.
  • Feldabhängigkeit ist eventuell keine neue Persönlichkeitsdimension, da eventuell bloß neue Operationalisierungen für eine bekannte Verhaltensdimension vorliegen: Thurstones Raumfaktor „Flexibility of Closure“.
  • Konstrukt der Differenzierung ist zu vage, um die Grenzen seiner Anwendung festzulegen; Theorie ist somit (teilweise) nicht falsifizierbar.
Tags: Feldabhängigkeit, kognitive Persönlichkeitskonstrukte, Kritik
Quelle: S131
185
Kartenlink
0
Was versteht man unter den Konstrukten Reflexivität und Impulsivität? (Operationalisierung, Interpretation, Probleme)
R‐I: Dimension: Konsistente Tendenz (eines Kindes), in Problemsituationen mit hoher Antwortsicherheit langsame oder schnelle Entscheidungen aufzuweisen.

Operationalisierung: Matching Familiar Figures Test (MFF‐T; vgl. Abb.)
Aufgabenstellung: Möglichst rasch Figur finden, die dem Standardreiz in allen Einzelheiten gleicht.
Gemessen: Gesamtlösungszeit und Fehlerzahlen.

Interpretation: Einteilung in 4‐Felder‐Schema, aber
nur 2‐Felder werden klassifiziert:
  • reaktionsschnell u. fehlerreich = impulsiv
  • langsam u. fehlerarm = reflexiv

Probleme:
  • Informationsverlust durch typologische Betrachtung eines dimensionalen Konzepts (Berücksichtigung von nur ca. 1/3 der Tpn);
  • extreme Stichprobenabhängigkeit der Klassifikation;
  • Konstrukt primär an Kindern entwickelt.
  • Ergebnis: Reflexivität korreliert positiv mit Feldunabhängigkeit und (sprachfreier) Intelligenz.
  • Kritik(Tidemann, 1983): MFF‐T ist keine Operationalisierung eines kogn. Stils (Präferenzkonzept), sondern ein klass. Leistungstest (Fähigkeitskonzept); endgültige Bewertung steht noch aus.
Tags: Kagan, kognitive Persönlichkeitskonstrukte, Reflexivität
Quelle: S132
186
Kartenlink
0
Wer ist George A. Kelly? Wie und wo arbeitete er?
George A. Kelly (1905‐1966): Wuchs in Kansas auf, studierte an mehreren Universitäten und erwarb das Doktorat an der Universität von Iowa.

Er entwickelte eine mobile psychologische Beratungsstelle in Kansas, war im 2. Weltkrieg Psychologe bei der Luftwaffe und lehrte später als Professor für Psychologie an der Ohio State University und an der Brandeis University.

Beispiel für seine klinische Arbeitsweise: Wenn ein Lehrer sich über die Faulheit eines Schülers in der Beratungsstelle
beklagte, dann versuchte Kelly die Verhaltensweisen des Kindes und das „Konstruktsystem“ des Lehrers zu verstehen,
die zusammen zum Vorwurf der Faulheit führten (= Neuformulierung des Problems).
-  Analyse des Lehrers und Schülers - Problemlösung.

Kelly vertritt die Ansicht, dass es keine objektive Realität oder absolute Wahrheit gibt.
Jeder Mensch ist quasi Wissenschaftler, indem er – ausgehend von Ereignissen im sozialen Umfeld – Abstraktionen bildet (Konstrukte: Interpretationen bzw. Hypothesen über konkrete Ereignisse und Situationen), die als Ordnungsinstrument und als Prädiktoren für zukünftiges Geschehen dienen.
Tags: Kelly, kognitive Persönlichkeitskonstrukte
Quelle: S132
187
Kartenlink
0
Was ist die kognitive Persönlichkeitskonstrukttheorie von Kelly? (Grundlagen, Messung, therapeutischer Ansatz)
Kellys Theorie handelt also von den Bildern, die verschiedene Individuen von der Welt – insbesondere von ihrer menschlichen Mitwelt – und von sich selbst entwerfen.
  • Bildung von Konstrukten: Zumindest drei Elemente notwendig, von denen zwei als ähnlich miteinander wahrgenommen werden müssen und das dritte als verschieden von den beiden anderen.
  • Anhand dieser individualtypischen „Konstrukte“ werden sowohl die eingetretenen Ereignisse auf ihre Stimmigkeit als auch die Konstrukte selbst auf ihre Brauchbarkeit hin überprüft, nötigenfalls modifiziert.
  • Jeder Mensch ist also einerseits frei (in der Entwicklung des Konstruktsystems), andererseits determiniert (gebunden an die Handlungsbeschränkungen seiner Konstrukte).
  • Kelly: „Ohne die Welt individuell zu konstruieren, wäre das Leben chaotisch“.
  • Es gibt Kernkonstrukte, die grundlegend für das Funktionieren eines Menschen sind und periphere Konstrukte, die ohne ernsthafte Modifizierung der Kernkonstrukte geändert werden können.
  • Kognitive Komplexität: Eine Person ist kognitiv um so „komplexer“, je mehr persönliche Konstrukte sie zur Kategorisierung und Unterscheidung ihrer sozialen Umwelt benützt.

Messmethode:
„Role Construct Repertory‐Test“ (REP‐Test): Der REP‐Test gibt Antwort auf die Frage nach der Komplexität der individuellen Beurteilungssysteme. Die Testprozedur ist nach  Vorbild von Begriffsbildungsexperimenten gestaltet.
Durchführung des REP‐Tests:
- Zunächst bekommt die Tp eine Liste mit ca. 20‐30 „Rollen“ vorgelegt, die für (fast) alleMenschen große Bedeutung haben (z.B. Mutter, Vater, beliebter/unbeliebter Lehrer, Chef, ethisch hochstehende Person, Freund/in usw.)
- Zu jeder Rolle wird nun von der Tp eine konkrete Person benannt, danach gibt der Testleiter Variante 1 od. 2 des REP‐Tests vor.
2 Varianten des Tests:
Wichtig: Tp soll an ganz konkrete Menschen denken.
  • Variante 1 (List‐Form): Testleiter gibt Tripel der Personen vor, zu denen die Tp ein individuelles Konstrukt nach dem Prinzip von Ähnlichkeit und Kontrast bilden muss.
  • Variante 2 (Grid‐Form): die Rollen und die benannten Personen werden in einem „Gitternetz“ dargestellt. Die Tp muss ein Konstrukt finden, das zwei Personen zukommt („Punkt“) und der dritten nicht („leerer Punkt“). Das Personentripel ist durch den Testleiter festgelegt.
  • - Danach soll die Tp auch noch alle anderen Personen bzw. Rollen danach beurteilen („x“), ob sie dem Ähnlichkeitspol des gebildeten Konstrukts entsprechen.

Analyse der REP‐Testdaten (auf unterschiedliche Weise möglich):
  • Inhalt und Zahl der produzierten Konstrukte erlauben Rückschlüsse auf die kognitive Struktur und die wichtigsten Kategorien der Wahrnehmungsorganisation;
  • Anzahl unabhängiger Konstrukte (wer herrschsüchtig ist, ist zumeist auch tat kräftig jedoch nicht verträumt) - kognitive Komplexität;
  • Vergleich von „Personen“ (z.B. Selbst‐Wunschbild) etc.
  • Interpretation von Inhalten; Kelly war primär an Inhalten interessiert, da er psychische Störungen als Folge überdauernder Anwendung invalider Konstrukte interpretierte (Intervention).

Therapeutischer Ansatz:
  • was z.B. das Konstrukt Faulheit für einen Menschen bedeutet wissen wir erst, wenn wir die Gegebenheiten kennen, die das Konstrukt mit einschließt und welche als gegensätzlich angesehen werden.
  • Ein häufiges Problem z.B. zwischen Partner ist die (Über‐)Betonung des Konstrukts „schuldig‐unschuldig“.
Tags: Kelly, kognitive Persönlichkeitskonstrukte, Persönlichkeitskonstrukttheorie
Quelle: S133
188
Kartenlink
0
Was sind Befunde zur Persönlichkeitskonstrukttheorie von Kelly?
Positive Befunde:
  • Delinquente Jugendliche weisen stärkere Ausprägung in sozial‐abweichenden Komponenten ihrer Konstruktsysteme auf als Vergleichsgruppe (Heather, 1979);
  • „Komplexe“ Menschen können besser das Verhalten ihnen bekannter Personen vorhersagen; auch sind sie eher imstande, ihre eigene Persönlichkeit und deren Unterschiede zu anderen herauszuarbeiten (Bieri et al., 1966).
  • Eltern von kognitiv‐komplexen Kindern gewähren mehr Autonomie und sind weniger autoritär (Cross, 1966).

Negative Befunde
  • Eltern von kognitiv‐komplexen Kindern gewähren mehr Autonomie und sind weniger autoritär (Cross, 1966).
  • Null‐Korrelationen mit Reflexivität/Impulsivität (Köstlin‐Gloger & Rottmair, 1979).

Schlussbemerkung: Theorie war enorm forschungsanregend, heute ist es still geworden.
Tags: Kelly, kognitive Persönlichkeitskonstrukte, Persönlichkeitskonstrukttheorie
Quelle: S135
189
Kartenlink
0
Was sind Stärken und Schwächen der Persönlichkeitskonstrukttheorie von Kelly?
Stärken der Theorie
  • Betonung des kognitiven Prozesses als zentralen Aspekt der Persönlichkeit
  • Versucht sowohl die Ganzheit des Individuums (individuelles Konstruktsystem) als auch die Gesetzmäßigkeiten, nach denen Persönlichkeit im Allgemeinen "funktioniert", innerhalb einer Theorie abzudecken.
  • Beinhaltet eine flexible, theoriebezogene Technik zur Personeneinschätzung und -erforschung (REP-Test).

Schwächen der Theorie
  • Lässt wichtige Aspekte (Entwicklung, Emotionen, Motivation) der Persönlichkeit unberücksichtigt oder gibt dazu nur einen minimalen Beitrag.
  • Operationalisierung trotz REP-Tests problematisch, weil eigentlich keine standardisierte "Messung" der indivudellen Konstrukte vorliegt (Was sind die eigentlichen Testscores? Wie sind sie zu interpretieren?)
  • Kognitive Komplexität ist bisher nicht mit einem allgemeinen Forschungs- und Theorieansatz innterhalb der Kognitiven Psychologie verbunden.
  • Hat nicht zu Ergebnissen geführt, die die Theorie "verbreitern" (seit 1955 keine neuen theoretischen Entwicklungen in der Persönlichkeits-Konstrukttheorie)
Tags: Kelly, kognitive Persönlichkeitskonstrukte, Persönlichkeitskonstrukttheorie
Quelle: S135
190
Kartenlink
0
Welche humanistisch und tiefenpsychologisch orientierte Persönlichkeitstheorien gibt es?
  • Humanistische Persönlichkeitstheorie von Carl R. Rogers
  • Analytische Persönlichkeitstheorie von Carl G. Jung
  • R/S Konstrukt (Bruner & Postman 1947) - Persönlichkeitsmerkmal "Repression versus Sensitization"
Tags: analytische Persönlichkeitstheorie, humanistische Persönlichkeitstheorie, Jung, Repression, Rogers, Sensitization
Quelle: S136
191
Kartenlink
0
Wer ist Carl R. Rogers? Wo und was arbeitete er?
Geboren 1902 in Illinois, USA; Kindheit in streng religiöser
Atmosphäre; Studierte zuerst Agrarwissenschaften, wechselte dann – inspiriert durch eine Reise in den Orient 1922 – zur Theologie, begann jedoch bald an religiösen Lehrmeinungen zu zweifeln; Studium der Psychologie am Teachers College der Columbia University (Abschluss als PhD 1931).

Beeinflusst durch Freuds Psychoanalyse sowie die naturwissenschaftlich‐statistisch orientierte Psychologie, versuchte er beide Ansätze in seiner Humanistischen Psychologie zu vereinigen.

1940 Professur an der Ohio State University; 1946‐1947 Präsident der APA (American Psychological Association). 1951 Veröffentlichung seines berühmtesten Werkes „Client‐Centered Therapy“.
1968 Gründung des „Center of Studies of the Person“ (bei San Diego, California), das der Weiterentwicklung seiner Überlegungen und der Übertragung auf Gruppen diente (Encountergruppen).

Verstorben 1987 in Kalifornien.
Tags: Geschichte, Rogers
Quelle: S136
192
Kartenlink
0
Was kennzeichnet Struktur und Prozess im humanistische Persönlichkeitstheorie?
(Rogers)

Struktur(Was für ein Mensch?)
Rogers unterscheidet zwei Komponenten
  • (Real‐)Selbst: verstanden als bewusstes, kohärentes und integriertes Wahrnehmungsmuster, das jene Teile des individuellen Wahrnehmungsfeldes enthält, die mit „mein“, „ich“ oder „selbst“ bezeichnet werden.
  • Beschränkung auf „bewusst“ deshalb, weil unbewusste Wahrnehmungsinhalte nach Rogers nicht objektiv gemessen werden können.
  • Ideal‐Selbst: jenes Selbstkonzept, das ein Individuum am liebsten besitzen würde (= Inhalte, die vom betreffenden Individuum besonders hoch und bedeutend eingeschätzt werden).
  • Inhalte vorwiegend kulturell geprägt und beinhalten Standards, denen die Person selten oder nie entsprechen kann.

Prozess(Warum verhält er/sie sich so?)
3 Hauptmotive menschlichen Verhaltens
  1. Selbstaktualisierung (Selbstverwirklichung)
  2. „Grundlegende Tendenz, den Erfahrungen machenden Organismus zu aktualisieren, zu erhalten und zu erhöhen“ (Rogers, 1951);beinhaltet die Entwicklung der eigenen Persönlichkeit von einer- einfachen zu einer differenzierten, integrierten Struktur,- von Abhängigkeit in Richtung Unabhängigkeit und- von Starrheit in Richtung Veränderung.Diese „Lebenstendenz“ („force of life“) stellt etwas Fundamentales und Universelles dar; sie ist auch auf den nicht‐menschlichen, organischen Bereich übertragbar (Rogers nennt als Beispiel Ökosysteme z.B. Regenwälder).
  3. Konsistenz / Kongruenz
  4. Konsistenz = Konfliktfreiheit zwischen einzelnen SelbstwahrnehmungenKongruenz = Konfliktfreiheit zwischen Selbstwahrnehmung und der aktuell erfahrenen Realität.Im Konfliktfall (= Inkongruenz), es entsteht das spannungsgeladene Gefühl der Angst.Abwehrmöglichkeiten:- z.B. mit Verleugnung der Realität- oder (häufiger) mit Wahrnehmungsverzerrungen - Neurose = Teufelskreis immer größer werdender Inkongruenz und daraus resultierender zunehmender Angst;- Psychose = Zusammenbruch der Abwehrmöglichkeiten, das „Selbst“ zerfällt in nicht mehr zusammenhängende Teile“ (= Inkonsistenz) - unangepasste, unlogisch erscheinenden und nicht nachvollziehbare Verhaltensweisen.
  5. Notwendigkeit bedingungsloser positiver Anerkennung (unconditional positive regard)
  6. Das Erfülltwerden der Bedürfnisse nach Wärme, Respekt, Sympathie, Liebe usw. Steht im Gegensatz zu conditional positive regard, also zu jener Art der Anerkennung, die an bestimmte Bedingungen geknüpft ist; letztere mag zwar gesellschaftlichen Werten bzw. Bedürfnissen entsprechen, kann aber in Widerspruch zur Selbstaktualisierungstendenz stehen.
Tags: humanistische Persönlichkeitstheorie, Rogers
Quelle: S136
193
Kartenlink
0
Was kennzeichnet das Menschenbild in der humanistischen Persönlichkeitstheorie?
(Rogers)
Das Menschenbild der Humanistische Persönlichkeitstheorie ist gekennzeichnet:
  • durch den Glauben an das Gute im Menschen,
  • durch die Ansicht, dass jeder Mensch freiwillig in Richtung Selbstaktualisierung (self actualization), Reife und Sozialisation strebt (wenn keine hemmenden gesellschaftlichen und/oder kulturellen Umstände entgegenstehen),
  • durch Toleranz anderen und anderem gegenüber.
Tags: humanistische Persönlichkeitstheorie, Rogers
Quelle: S136
194
Kartenlink
0
Wie kann die Messung der Konstrukte in der humanistischen Persönlichkeitstheorie erfolgen?
Messung der Konstrukte mittels verschiedener Techniken:
  • Q‐Sort (Question Sort; Methode stammt von Stephenson, 1953):
  • Kärtchen mit Selbstbeschreibungen (Statements) werden vorgegebenen Zustimmungskategorien zugeordnet. ↔ Gegensatz zur klass. Fragebogen‐Technik, in der Ausprägungsgrade den Statements (durch Ankreuzen) zugeordnet werden.- Testleiter kann eine bestimmte Verteilung der Kärtchen über die einzelnen Kategorien vorgegeben (z.B. NV, Gleichverteilung), um etwa zu „provozieren“, daß auch die Randbereiche der Skala verwendet werden.- Die Tpn können ihre bereits getroffenen Zuordnungsentscheidungen jederzeit revidieren (entfall des „Juroren‐ Dilemmas“).
  • Adjektivlisten:
  • Hier sucht die Vpn jene Adjektive aus einer vorgegebenen Adjektivliste heraus, die auf sie besonders zutreffen.
  • Semantisches Differential (Osgood, 1953):
  • Einschätzung von Begriffen (z.B. „Mein Selbstbild“ oder „Mein Idealbild“) auf vorgegebenen Skalen adjektivischer Gegensatzpaare.Rogers wandte diese Technik an, um Diskrepanzen zwischen Real‐Selbst und Ideal‐Selbst quantifizieren zu können.
  • Fragebogen zu Selbstaktualisierungstendenz (von Jones & Crandall, 1986):
  • Beispielitems (aus Pervin, 1993, S. 205):- „Es ist immer notwendig, dass andere das bestätigen, was ich tue“ (‐)- „Ich befürchte immer, einer Situation nicht gewachsen zu sein“ (‐)- „Ich schäme mich wegen keines meiner Gefühle“ (+)- „Ich glaube, dass Menschen im Innersten gut sind und dass man ihnen vertrauen kann“(+)
Tags: humanistische Persönlichkeitstheorie, Methoden, Rogers
Quelle: S138
195
Kartenlink
0
Wie erfolgt eine Intervention nach der humanistischen Persönlichkeitstheorie? Was muss dabei beachtet werden?
(u.a. Rogers)
Non‐direktive, klienten‐zentrierte Gesprächspsychotherapie

Bereits in 1940er Jahren: Untersuchung jener Variablen des therapeutischen Prozesses, die eine Psychotherapie besonders erfolgreich machen. Analyse zahlreicher Tonbandprotokolle / Mitschnitte aus Beratungssitzungen.

3 wesentlichen Variablen:
  • Empathie = Fähigkeit des Therapeuten, sich in die Gedankenwelt und das emotionale Empfinden seines Klienten einzufühlen;
  • Echtheit (Kongruenz) = Fähigkeit, mit dem Klienten ehrlich „umzugehen“, und sich als Therapeut nicht hinter einer Fassade zu verstecken.
  • Akzeptanz = Fähigkeit, den Klienten als das zu akzeptieren, was er ist, und ihm (bedingungslosen) Respekt und pos. Wertschätzung entgegenzubringen.

Diese „Faktoren“ sollen sicherstellen, dass Klient seine „Maske fallen lassen“ kann und – unbeeinflusst von der Gesellschaft und ihren Anforderungen – wieder in Kontakt mit der eigenen Selbstaktualisierungstendenz kommt.
Tags: humanistische Persönlichkeitstheorie, Intervention, Rogers
Quelle: S138
196
Kartenlink
0
Was sind die Stärken und Schwächen der humanistischen Persönlichkeitstheorie?
Stärken der Theorie:
  • Versuch einer holistischen, integrierten Betrachtungsweise d.
  • Persönlichkeit.
  • Ernsthaftes Bemühen, naturwissenschaftlich‐empirische und
  • tiefenpsychologisch orientierte Ansätze unter dem Mantel der humanistischen Psychologie zusammenzufassen.
  • Große Bedeutung im Bereich der Klinischen Psychologie und Psychotherapie wegen der systematischen Untersuchung von Variablen erfolgreicher Therapien.

Schwächen der Theorie:
  • Mangel an objektiven, psychometrisch abgesicherten Verfahren, die über Selbstbeschreibung hinausgehen.
  • Fokussierung auf bestimmte Bereiche des menschlichen Seelenlebens (nur „Bewusstes“).
  • Geringe Präzision der verwendeten Begriffe, kasuistische Orientierung, fehlender Bezug zu exakten Einzelbeobachtungen.
Tags: humanistische Persönlichkeitstheorie, Kritik, Rogers
Quelle: S138
197
Kartenlink
0
Wer ist Carl G. Jung? Wo und was arbeitete er?
Geboren am 26.7.1875 in der Schweiz; Sohn eines evangelischen Pfarrers (8 Geistliche in der näheren Verwandtschaft);
Großvater C. G. Jung sen. war Prof. für Anatomie & Innere Medizin, Rektor der Basler Universität und Jungs großes Vorbild.
  • 1900 promovierte Jung zum Dr. med. (Dissertationsthema: Zur
  • Psychologie und Pathologie occulter Phänomene); Arbeitete alsAssistenzarzt für Psychiatrie am Züricher Psychiatrischen Krankenhaus „Burghölzli“ (Leitung: Eugen Bleuler).
  • 1911‐1913: Präsident der Internationalen Psychoanalytischen
  • Vereinigung.
  • 1913 Zerwürfnis mit Freud, wegen dessen übergroßer Betonung der Sexualität im Rahmen der psychischen Entwicklung, und Austritt aus der Psychoanalytischen Vereinigung.
  • Ab 1913 Tätigkeiten als Psychotherapeut sowie als Gastprofessor an zahlreichen ausländischen Universitäten; Studienreisen in verschiedenste fremde Kulturen (in den 20er – 30er Jahre);
  • 1944 Ordinarius für Medizinische Psychologie der Universität Basel.
  • Jung erhielt zahlreiche Ehrendoktorate und Literaturpreise (Gesamtwerk: 18 Bände!).
  • Autobiographie „Erinnerungen, Träume, Gedanken“ (1962).
  • Vielfältige Interessen: Psychiatrie, Psychologie, Archäologie, Religionsgeschichte,Ethnologie, Mythologie, Astrologie.

Verstorben am 6. 6. 1961 in Küßnacht (CH).

Im Rahmen dieser VO kann nur ein kleiner Ausschnitt aus Jungs Werk vorgestellt werden; näher eingegangen wird auf:
- die Typenlehre C. G. Jungs (Einstellungs‐ und Funktionstypen),
- die Struktur der Persönlichkeit aus analytisch‐psychologischer Sicht (Komplexe),
- den Prozess (Individuation).
Tags: Geschichte, Jung
Quelle: S139
198
Kartenlink
0
Was kennzeichnet die Typenlehre von Jung?
Analytische Persönlichkeitstheorie von C. G. Jung

Jung unterscheidet Einstellungstyp und Funktionstyp.

Einstellungstyp: beschreibt den Reaktionshabitus (Extraversion/Introversion) von Personen anhand der Richtung der Verwendung ihrer psychischen Energie („Libido“). E od. I Ist
besonders in der ersten Lebenshälfte des Individuums sehr ausgeprägt.
  • Extraversion: E. haben ein positives Verhältnis zum Objekt („Du“), Orientierung erfolgt eher an äußeren, kollektiv‐gültigen Normen, Zeitgeist etc.; richten ihre Libido eher in Richtung Außenwelt.
  • Introversion: I. haben ein negatives Verhältnis zum Objekt, Orientierung erfolgt an inneren, subjektiven Faktoren, richten ihre Libido eher in Richtung Innenwelt.

Funktionstyp: Psychische Funktion ist „eine gewisse, unter verschiedenen Umständen sich gleichbleibende psychische Tätigkeit, die von den jeweiligen Inhalten völlig unabhängig ist“
(Ges. Werke VI, S. 470). Es handelt sich also um den Erfassungs‐ und Verarbeitungsmodus psychischer Gegebenheiten.
Jung unterscheidet zwischen rationalen und irrationalen Funktionen.
  • Rationale Funktionen (Denken, Fühlen) arbeiten mit Wertungen.
  • Irrationale Funktionen (Empfinden, Intuieren ≈ Intuition) arbeiten mit bloßen Wahrnehmungen ohne Sinnverleihung.

2 Typen (Stile) stehen einander jeweils diametral gegenüber: der individuell differenzierteste Funktionstyp wird als „superiore“, der gegenüberstehende als unbewusste, unterentwickelte oder „inferiore“ Funktion bezeichnet.
Mischtypen: Mischung benachbarter Funktionstypen.


Verarbeitungsmodi der Funktionstypen (siehe Abbildung)
  • Verarbeitungsmodus beim Denken ist die Wertung nach "logisch / unlogisch", beim Fühlen nach "angenehm / unangenehm"
  • Verarbeitungsmodus beim Empfinden ist die sehr bewusst und detailgetreue Wahrnehmung von Dingen, so wie sie sind, beim Intuieren die ganzheitliche (holistische), "innere" Wahrnehmung.

Folgendes Beispiel - Musikerlebnis beim Konzertbesuch" soll helfen die Funktionstypen besser zu verstehen:
  • FT Denken: verfolgt z.B. mit Partitur die Musik, analysiert Thema, Seitenthema, etc.
  • FT Fühlen: bewertet z.B. nach Gefallen / nicht gefallen
  • FT Empfinden: hat z.B. "unbewertete" Wahrnehmung bezüglich "Lauter / leiser Passagen", Einsetzen bestimmter Instrumente, etc.
  • FT Intuieren: nimmt z.B. atmosphärischen Gesamteindruck wahr (ohne zu bewerten).

Tags: analytische Persönlichkeitstheorie, Einstellungstyp, Funktionstyp, Jung, Typenlehre
Quelle: S140
199
Kartenlink
0
Was kennzeichnet die Struktur der Persönlichkeit in der analytischen Persönlichkeitstheorie von Jung?
Struktur: Komplexe (Bewusstes, Unbewusstes)
  • Unter Komplexen versteht Jung eine Gruppe
  • - von assoziativ fest miteinander verbundenen, gespeicherten Vorstellungen, Erlebnissen, Bildern und Wörtern, die - eine gemeinsame Gefühlstönung aufweisen und - sich um den „archetypischen Bedeutungskern“ ordnen (z.B. Ich‐K., Mutter‐K. etc.).
  • Erfassung mittels „Wortassoziationstest“ (Messung von Reaktionszeiten auf Reizwörter - verzögerte Assoziationen bedeuten gefühlsmäßige Beteiligung).
  • Bis auf den Ich‐Komplex, der das Bewusstsein darstellt, sind Komplexe (relativ) unbewusst, autonom, verarbeiten Signale und determinieren somit – neben Einstellungstyp und Funktionstyp – die Art, in der die Umwelt wahrgenommen wird. Mehrere Komplexe formen die psychische Struktur.
  • Das Unbewusste gliedert sich in
  • - das persönliche Unbewusste, welches Vergessenes bzw. Verdrängtes aus dem persönlichen Leben umfasst, und in das - kollektiv Unbewusste, das die Summe der Archetypen („Urbilder“, „Dominanten des kollektiven Unbewussten“) beinhaltet.Archetypen umfassen statische ebenso wie dynamische Inhalte, wie z.B. Motive mythologischer Art, Reaktionen besonders intensiver Art, transkulturelle Symbole.
Tags: analytische Persönlichkeitstheorie, Jung, Persönlichkeit, Struktur
Quelle: S141
200
Kartenlink
0
Was kennzeichnet den Prozess in der analytischen Persönlichkeitstheorie von Jung?
  • Den wichtigsten Prozess, der als Motivation jedem Menschen zu eigen ist, nennt Jung „Individuation“ (Selbstverwirklichung), welche auf psychische Entfaltung, „Selbstwerdung“ und Integration abzielt. Dieser Prozess, der auch ohne psychotherapeutische Intervention abläuft, weist je nach Lebensphase unterschiedliche Besonderheiten auf.
  • In der 1. Lebenshälfte steht die (soziale) Anpassung an die äußere Realität im Vordergrund. Es geht also um den Konflikt zwischen dem Ich und der (auszubildenden) „Persona“ (= Manifestation jener Rollen bzw. der daran geknüpften kollektiven Erwartungen, die man im Laufe seines Lebens in der Außenwelt übernehmen muss).
  • All jene Teile der Persönlichkeit (Einstellungstyp, Funktionstyp, speziell die „inferiore“ Funktion), die vom Ich oder im Rahmen der Persona nicht akzeptiert werden können, werden in das persönliche Unbewusste verdrängt und fristen dort – als „eigendynamischer Schatten“ – ein „archaisch‐primitives Dasein“; sie werden in der Außenwelt in Form von Träumen oder Projektionen auf Objekte „erlebt“.

Weitere vom Ich (zunächst) abgespaltete und undifferenzierte Persönlichkeitsanteile sind:
- Anima im Mann (das „Seelenbild“ des Weiblichen) und der
- Animus in der Frau („Seelenbild“ des Männlichen) 
.... vgl. Begriff der Androgynie

Anima & Animus gehören den Archetypen an und umfassen gegengeschlechtliche Inhalte und Verhaltensweisen (Persönl. Erlebnisse wie Inhalte aus dem kollektiven Unbewussten).
Sie sind in ihren Erscheinungsweisen vielfältig.

Im Laufe des Lebens werden diese Inhalte zuerst in Träumen, Phantasien bzw. am Objekt erlebt, dann im Zuge der Individuation (Integration der Persönlichkeit ungefähr in der 2. Lebenshälfte) an sich selbst gefunden und erlebt.
Tags: analytische Persönlichkeitstheorie, Jung
Quelle: S141
201
Kartenlink
0
Welche Würdigung und Kritik gibt es an der analytischen Persönlichkeitstheorie von Jung?
Würdigung
  • Umfangreiches, kreatives, intellektuell stimulierendes Gedankengebäude.
  • Möglicher Erklärungsansatz für transkulturelle, persönlichkeitspsychologische Gemeinsamkeiten verschiedener Völker.
  • Typenlehre war und ist forschungsanregend (Vorbild für präzisere Operationalisierungen von div. Konstrukten – etwa Extraversion / Introversion bei Eysenck).
  • Grundstein für eine – in Österreich gesetzlich anerkannte – psychotherapeutische Richtung.

Kritik
  • Mangelhafte Präzision der Begriffe und Konzepte  geringe Operationalisierbarkeit.
  • Empirische Prüfbarkeit schwierig bis kaum gegeben.
Tags: analytische Persönlichkeitstheorie, Jung, Kritik
Quelle: S142
202
Kartenlink
0
Was versteht man unter dem R/S Konstrukt?
Persönlichkeitsmerkmal: Repression vs. Sensitization

R/S ist ein kontinuierlich variierendes Merkmal, dessen Pole zwei verschiedene Arten bezeichnen, mit angstauslösenden Reizen fertig zu werden.
  • Repression:
  • Emotional negativ assoziierte Reize (z.B. peinliche, konfliktgeladene, bedrohliche) werden vermieden bzw. möglichst nicht zur Kenntnis genommen (Represser od. Abwehrer).
  • Sensitization:
  • Emotional neg. assoziierten Reize wird besondere Aufmerksamkeit, Zuwendung, Beschäftigung gewidmet (Sensitizer od. Sensibilisierer).

Die theoretischen Vorstellungen stammen aus der Psychoanalyse. Nach Eriksen (1950) sind diesen Angstverarbeitungsmechanismen typische Abwehrmechanismen
zugeordnet:
- Repression: Verdrängung, Sublimierung;
- Sensitization: Intellektualisierung, Kompensation

Das R/S Konstrukt geht auf eine Forschergruppe der Harvard Universität (um Bruner & Postman, 1947) zurück.

Studiert wurde das Phänomen der Wahrnehmungsabwehr (perceptual defense). Dieses besagt, dass emotional besetzte Wörter (wie etwa Tabuwörter: Hure, Penis etc.) und angstassoziierte Wörter (Raub, Mord etc.) höhere Erkennungsschwellen besitzen als neutrale Wörter (bei gleicher Wortlänge und gleicher Vorkommenshäufigkeit) .

Festgestellt wurde dies mittels Tachistoskop-Versuch: Beginnend mit sehr kurzen Darbietungszeiten (0,1 sec. im 1. Durchgang, dann je Durchgang gesteigert) wurde geprüft, ab welcher Darbietungszeit eine Tp das jeweilige Wort erstmals richtig nennen kann.

In einer Studie zu diesem Phänomenbereich gab es jedoch – neben den Tpn, die perceptual defense zeigten – auch solche, für die etwa das Gegenteil zutraf:
Emotionale Reizwörter wurden früher erkannt als Wörter mit mittlerem Emotionalitätsgehalt perceptual vigilance (vgl. Abb. unten).
Tags: Persönlichkeit, Repression, Sensitization
Quelle: S143
203
Kartenlink
0
Wie erfolgt die Messung des R/S Konstrukts?
Messung des R/S Konstrukts:
  • Experimentell (Wortassoziationstest): Nach Byrne et al. (1962) war Reliabilität gering.
  • Daher: Entwicklung eines Fragebogens (Byrne et al. 1963). Die neue R/S-Skala war zufriedenstellend reliabel und valide (deutsche Bearbeitung von Krohne, 1974).
  • Aus 127 Items des MMPI (Minnesota Multiphasic Personality Inventory) wurde eine R/S-Skala unter der Annahme konstrukiert, das - Represser hohe Werte auf der Hysterie- und Lügen-Skala aufweisen und - Sensitizer hohe Werte in den Skalen Depression, Psychasthenie und Angst.Die neue R/S-Skala war zufriedenstellend reliabel und valide.
Tags: Methoden, R/S Konstrukt
Quelle: S144
204
Kartenlink
0
Was zeigten die Untersuchungsergebnisse zum R/S Konstrukt?
Einige Untersuchungsergebnisse zum R/S Konstrukt
  • Aufmerksamkeit gegenüber Erkrankungen (Byrne et al, 1968, 1971)
  • - Sensitizer (S) berichten in einem Gesundheitsfragebogen häufiger Erkrankungen als Represser (R)- S sind häufiger wegen psychosomatischer Erkrankungen in Behandlung, R häufiger wegen organischer Erkrankungen.
  • Reaktion auf sexuelle Reize
  • - Bei S treten bei Darbietung von zweideutigen Reizwörtern häufiger sexuelle Assoziationen auf (Galbraith & Lieberman 1972)- Beim Vorlesen erotischer Literaturstellen sind R&S gleichermaßen erregt - R reagieren jedoch eher mit negativen Gefühlen (Byrne & Sheffield, 1965)
  • Unterschiede im Elternhaus (Byrne 1964)
  • - R haben eher warmes, entspanntes, ausgeglichenes Elternhaus, S eher kaltes, angespanntes, belastendes Elternhaus

Unterschiede zwischen Repressern und Sensitizern (Amelang & Bartussek, 1990):
Tags: Experiment, R/S Konstrukt
Quelle: S144
205
Kartenlink
0
Wo bzw. wie kann das R/S Konstrukt angewendet werden? (Beispiel)
Beispiel für Anwendung des R/S Konstrukts (Operationsvorbereitung; Miller, 1990)
  • R sollten über Einzelheiten eines bevorstehenden operativen Eingriffs eher sparsam informiert werden, ihnen ist mit Aufklärung über etwas, was sie ohnehin nicht beeinflussen können, nicht gedient.
  • S sollten eher ausführlich informiert werden, weil sie durch Verweigerung der Aufklärung zusätzlich in Besorgnis geraten.

Allgemein sollte also eine Passung zwischen Aufklärungsangebot und individuellem Angstbewältigungsstil angestrebt werden.
Tags: Beispiel, R/S Konstrukt
Quelle: S144
206
Kartenlink
0
Was ist die Kritik am R/S Konstrukt?
Kritik: Abgrenzungsproblematik: Frye et al. (1974) stellten hohen Zusammenhang zwischen R/S und Neurotizismus, emotionaler Labilität sowie Ängstlichkeit fest.

Erweiterung des R/S Konstrukts: Krohne et al. (1985) meinen, dass R & S nur 2 von 4 möglichen Angstbewältigungsformen darstellen.
Das führt zu dem Schema:
Tags: Kritik, R/S Konstrukt
Quelle: S145
207
Kartenlink
0
Was sind wichtige Vertreter und Entdeckungen in der Anlage/Umweltforschung?
  •    Gregor MENDEL (1865) eröffnete der Forschung den empirischen Zugang zu Problemen der Familienähnlichkeit. (Mendelsche Regeln bestimmen den Erbgang von Einzelmerkmalen in aufeinanderfolgenden Generationen.)*   Walther FLEMMING(1879): Gilt als Begründer der Zytogenetik; entdeckte in den Zellkernen die sog. Chromosomen.*   T. BOVERI und W. S. SUTTON (1902 / 1904): Stellten Zusammenhang zwischen Chromosomen und Vererbungsgeschehen her.*   W. L. JOHANNSEN (1909): „Gene“ sind Träger der Erbfaktoren.*   J. D. WATSON & F. H. C. CRICK (1953): Biochemische Struktur der Chromosomen (Desoxyribonukleinsäure, DNS). Das sog. Watson-Crick-Modell beschreibt die Moleküle als langgestreckte Fäden, die jeweils aus zwei Einzelsträngen (in Form einer Doppelhelix) gebildet sind.
208
Kartenlink
0
Welche Datengewinnungsmethoden werden in der Anlagen/Umweltforschung verwendet?
  • Stammbaumanalysen: Nur mehr historisch interessant.
  • Retrospektive Betrachtung der Häufung von besonderen Begabungen (sog. Merkmalsträger) oder Minderbegabung als Funktion des Verwandtschaftsgrades in Familien- Galton (1869): untersuchte 100 Familien von berühmten Mathematikern und Naturwissenschaftlern- Juda (ca 1940): untersuchte 113 Künstler- und 181 Wissenschafterfamilien im deutschsprachigen Raum (z.B. Bernoulli, Bach, ...) - Hochbegabung treten gehäuft auf.- Reed (1965): Kinder von geistig retardierten Personen waren zu 50,7% wieder geistig retardiert. Mit Abnahme des Verwandtschaftsgrades nahm der Prozentsatz intellektuell retardierter Nachkommen ab.Kritik: Häufung in den Familien zwar gegeben, aber keine Beweise für Vererbarkeit, weil Anlage- und Umwelteinflüsse dabei eine Rolle Spielen. Eine konklusive Ergebnisinterpretation ist daher nicht möglich.
  • Studien an Heimkindern:
  • Nichtverwandte Pflege- und Heimkinder, die gemeinsam aufwachsen, würden aufgrund der gleichartigen Umweltbedingungen ähnlicher sein als zufällig aus der Population heraus gegriffene Kinder.Kritik: Die notwendige Voraussetzung für eine konklusive Interpretation, dass Pflegekinder hinsichtlich ihres Genotyps (ebenso wie die Vergleichsstichprobe) eine Zufallsstichprobe darstellen, ist nicht plausibel.
  • Adoptionsstudien:
  • Die Ähnlichkeiten (Ä) von Adoptivkindern zu ihren Adoptiveltern (genetische Ä = 0%) vs. leiblichen Eltern (genetische Ä = 50%) werden analysiert.Probleme: - Vollständigkeit und Zuverlässigkeit der Daten (leiblicher Vater oft ungewiss). - Umweltvarianz in Adoptivfamilien eingeschränkt.- Eltern, die ein Kind zur Adoption freigeben, sind wahrscheinlich keine Zufallsauswahl aus der Population.
  • Zwillingsstudien
  • - Eineiige Zwillinge (EZ) haben identische genetische Ausstattung.- Zweieiige Zwillinge (ZZ) sind Geschwister gleichen Alters. - Getrennt oder gemeinsam aufgewachsen?
Tags: Anlage/Umwelt, Methoden
Quelle: S146
209
Kartenlink
0
Wofür werden Zwillingsstudien eingesetzt? Was sind Vor- und Nachteile von Zwillingsstudien?
Zwillingsstudien:
  • Eineiige Zwillinge (EZ) haben identische genetische Ausstattung.
  • Zweieiige Zwillinge (ZZ) sind Geschwister gleichen Alters.
  • Getrennt oder gemeinsam aufgewachsen?

  • EZ, die getrennt aufgewachsen, unterscheiden sich voneinander nur durch die ungleichen ökologischen Faktoren (z.B. Bouchard, 1987) .
  • Gemeinsam aufgewachsene EZ unterscheiden sich von gemeinsam aufgewachsenen ZZ nur durch die genetische Ähnlichkeit – bei angenommener gleicher Umweltvarianz
  • (Loehlin, 1992).

Grundsätzliche Probleme von Zwillingsstudien:
  • Repräsentativität von Zwillingen für die Normalbevölkerung als Ganzes, da sie Personen mit Erbkopien (EZ) bzw. Geschwister gleichen Alters (EZ und ZZ) sind.
  • Wie verschieden bzw. unabhängig waren die jeweiligen Umwelten von getrennt aufgewachsenen Zwillingspaaren (EZ und ZZ) wirklich?
  • Umweltvarianz wahrscheinlich geringer als in Normalbevölkerung.
Tags: Anlage/Umwelt, Methoden, Zwillingsmethode
Quelle: S146
210
Kartenlink
0
Welche Schlussfolgerungen lassen sich in Bezug auf die Datengewinnungsmethoden in der Anlagen/Umweltforschung ziehen?
  • Jeder Untersuchungsansatz birgt spezifische Probleme, so dass es zu einer Über- bzw. Unterschätzung der Heritabilität (Erblichkeit) kommen kann.
  • Für inferenzstatistische Aussagen werden Zufallsstichproben aus der Population (bzw. repräsentative Stichproben) benötigt; Selektionseffekte, die durch Auswahl verschiedener spezifischer Personengruppen gegeben sind, verhindern die Erfüllung dieser Voraussetzung . D.h. sowohl die genetische Varianz als auch die Umweltvarianz entspricht in den speziellen Gruppen wahrscheinlich nicht der Populationsvarianz.
  • Zudem sind die Stichproben häufig klein, so dass inferenzstatistische Aussagen problematisch sind.
  • Alle Studien haben quasi-experimentellen Charakter, da es sich um „Subjektvariable“ handelt (Randomisierung bzw. Manipulation der „unabhängigen Variablen“ durch den Versuchsleiter nicht möglich).
Tags: Anlage/Umwelt, Methoden
Quelle: S147
211
Kartenlink
0
Beschreibe das genetische Modell für quantitative Merkmale (Jensen, 1969)?
Die in einer Grundgesamtheit bestehende Varianz von Personeneigenschaften kann konzeptuell in Komponenten (Varianzanteile: V) zerlegt werden.
Die Erblichkeit (Heritabilität) ergibt sich aus der Summe jener Varianzanteile, die genetischen Faktoren zugeschrieben werden können.

Ein Modell, das international beachtet wird, stammt von Jensen (1969):

S²p Gesamtvarianz in den Phänotypen einer Population bezügl. eines Merkmals, das beobachtbar und testmäßig erfassbar ist (z.B. Intelligenz oder Extraversion).
Die Gesamtvarianz umfasst die Parental- und Filialgenerationen (Eltern- Kind-Generationen).
Sie wird in Komponenten zerlegt:
  • Die Varianz wird zerlegt in
  • - Anlagebedingten (V(A), Disposition) - Summe von Vg,Vam, Vd und Vep - und - Umweltbedingten Varianzanteil (V(U); biologische, soziale, kulturelle, Faktoren sowie prä- und postnatale Einflüsse)Summe von Ve,Vin und Cov(g,e).
  • Vf = Messfehler (mit dem immer zu rechnen ist, wenn wir etwas Messen - z.B. Intelligenztests messen relativ genauer als Persönlichkeitsfragebögen)

Tags: Anlage/Umwelt, genetische Modell
Quelle: S148
212
Kartenlink
0
Wie wird der anlagebedingter Varianzanteil im genetischen Modell für quantitative Merkmale berechnet?

V(A): Anlagebedingter Varianzanteil („Disposition“) als Summe von Vg,Vam, Vd und Vep .

  • Vg
  • Variabilität aufgrund interindividuell unterschiedlich geerbter (dominanter) Gene (z.B. Variabilität zwischen Geschwistern).Die dominanten Gene werden phänotypisch wirksam und sind Hauptursache für z.B. die Ähnlichkeit zwischen Eltern und Kindern.
  • Vam (Assortative mating)
  • In der Population findet eine hinsichtlich bestimmter Merkmale „systematische Paarung“ der Partner statt (assortative mating = gezielte Partnerwahl).Vandenberg (1972): Korrelation allgemeine Intelligenz zwischen Ehepartnern =.50- Kinder von Ehepaaren sind einander & auch den Eltern gegenüber ähnlicher als bei Zufallswahl zu erwarten wäre.- Einschränkung der Variabilität innerhalb von Familien bei gleichzeitigem Anstieg der Variabilität zwischen Familien.Für andere Merkmale, z.B. Blutgruppen ist die Partnerwahl dagegen rein zufällig.
  • Vd
  • Variabilität im Phänotyp aufgrund des Zusammentreffens vererbter rezessiver Gene mit korrespondierenden dominanten Genen (Dominanzabweichung).Daher werden phänotypische Merkmale der Parentalgeneration in der Filialgeneration – obwohl vererbt – phänotypisch nicht „sichtbar“. Vd ist aus Inzuchtstudien an Tieren abschätzbar.
  • Vep
  • Innerhalb des Genotyps eines Individuums können Gen-Wechselwirkungen (Epistase) auftreten; d.h. die Wirkung von Genen bzgl. der Ausprägung eines Merkmals ist nicht bloß additiv, sondern „verstärkend“ bzw. „abschwächend“.Beispiel: Gen X (Aggressivität) begünstigt – isoliert betrachtet – Merkmal M („Unfäller-Typ“), Gen Y (Risikofreudigkeit) ebenso. Die gemeinsame Wirkung von X und Y ist jedoch wesentlich stärker als die Summe ihrer Einzeleffekte
Tags: Anlage/Umwelt
Quelle: S148
213
Kartenlink
0
Wie wird der umweltbedingter Varianzanteil im genetischen Modell für quantitative Merkmale berechnet?

V(U): Umweltbedingter Varianzanteil (biologische, soziale, kulturelle Faktoren sowie prä- und postnatale Einflüsse) als Summe von Ve,Vin und Cov(g,e).

  • Ve
  • V von Umweltbedingungen (environment); quer- & längsschnittlich betrachtet.
  • Vin
  • V bedingt dadurch, dass unterschiedliche Genotypen in unterschiedlicher Weise auf identische Umweltbedingungen reagieren (Interaktion).Gedankenexperiment: In einer Schulklasse befinden sich drei gleichaltrige Geschwister (mehreiige Drillinge) und erhalten von einem Lehrer Unterricht (identische Umweltbedingung); dennoch werden sie verschieden auf diesen Unterricht reagieren (Befindlichkeit, Lernfortschritt etc.).
  • Cov(g,e)
  • V bedingt dadurch, dass bestimmte Genoytpen verschiedenenUmwelteinflüssen ausgesetzt werden. Plomin, De Fries & Loehlin (1977) unterscheiden 3 Typen der Genom-Umwelt-Kovarianz (Aktiver Typ, Passiver Typ, Reaktiver Typ)
Tags: Anlage/Umwelt
Quelle: S149
214
Kartenlink
0
Welche Typen der Genom-Umwelt-Kovarianz können im genetischen Modell für quantiative Merkmale unterschieden werden?

3 Typen der Genom-Umwelt-Kovarianz (2Cov(g,e)):
  • Aktiver Typ:
  • Umfasst jene Fälle, in denen sich Individuen die für ihre genetische Ausstattung geeigneten Umwelten aktiv aussuchten, einrichten bzw. herstellen (z.B. intelligenzmäßig passende Freunde, Lektüre, Betätigungen etc.).
  • Passiver Typ:
  • Ohne Zutun der Genomträger, werden ihnen durch das Verhalten von genetisch verwandten Personen bestimmte Umweltbedingungen geboten (z.B. wachsen intelligente Kinder schon deshalb in einer anregenden Umwelt auf, weil ihre Eltern – aufgrund ihrer eigenen Intelligenz, die teilweise auf denselben Allelen beruht, wie die der Kinder – eine anregende häusliche Umgebung schaffen).
  • Reaktiver Typ:
  • Die Umwelt reagiert unterschiedlich (differentiell) auf Individuen mit verschiedenen, genetisch beeinflussten Persönlichkeitseigenschaften (d.h. spezifische Talentförderung, Schultypwahl etc. führt zu Passung zw. Genom und Umwelt).
Tags: Anlage/Umwelt
Quelle: S150
215
Kartenlink
0
Was wird genutzt um anzugeben, zu welchem Prozentsatz eine Eigenschaft vererbt ist? Was ist die Voraussetzung dafür?
Vorbemerkung: Es wird eine Antwort auf die Frage gesucht, zu welchem Prozentsatz Eigenschaften (traits) vererbt sind.

Dazu wird der sog. Erblichkeitsschätzer (Heritabilitätsschätzer; meist bezeichnet mit H2) bestimmt.
Die verschiedenen Formeln für H2 können je nach zugrundeliegender Modellkomplexität differieren; auch die verschiedenen Daten (Zwillingsdaten, Geschwisterdaten etc.) tragen dazu bei, dass H2 zu unterschiedlichen Ergebnissen führen kann.

Relativ einfach können Varianzanteile dadurch abgeschätzt werden, dass die Merkmalsunterschiede zwischen eineiigen Zwillingen (EZ) denjenigen von zweieiigen Zwillingen (ZZ) gegenüberstellt werden.
Voraussetzung: Umweltvarianz von EZ und ZZ ist gleich groß!
Tags: Erblichkeitsschätzer, Heritabilitätsschätzer, Varianz, Zwillingsmethode
Quelle: S150
216
Kartenlink
0
Wie funktioniert der Herabilitätsschätzer?
Die Ähnlichkeit von Verwandten verschiedenen Grades wird in der Erbpsychologie in der Regel durch einen speziellen Korrelationskoeffizienten (r) erfasst: Intraklassenkorrelationen (Intra-Class-Correlation).

Dabei werden die Messwerte jedes Paarlings (z.B. EZ) je einmal innerhalb der einen und der anderen Messwertreihe (R1, R2) angeschrieben:

Aus derartigen Messwerten lässt sich die Intraklassenkorrelation wie die "normale" Produkt-Moment-Korrelation berechnen.

In Worten: Aus Verwendung von Intraklassenkorrelation folgt, dass
  • die Varianzen beider Messwertreihen gleich groß sind (sie enthalten ja auch exakt dieselben Messwerte);
  • zudem entsprechen sie auch der phänotypischen Gesamtvarianz des Merkmals.

Die Intraklassenkorrelation zwischen EZ (rEZ) kann nun wie folgt angeschrieben werden:

Die Kovarianz (cov) drückt den gemeinsamen Varianzanteil der beiden Messwertreihen aus,  der bei EZ durch deren identische genetische Ausstattung gegeben ist; sie wird auf die gesamte Merkmalsvarianz (vgl. Nenner) bezogen.

Ähnliche Überlegungen gelten auch für Intraklassenkorrelationen, die zwischen Personen anderer Verwandtschaftsgrade erhoben werden, etwa ZZ, leibliche Geschwister, Halbgeschwister, Eltern-Kinder etc.
  • r ist bei EZ größer als bei ZZ (rEZ > rZZ);
  • dies beruht – bei Erfüllung der Voraussetzung gleich großer Umweltvarianz – nur auf der größeren genetischen Ähnlichkeit von EZ, da sie 100% ihrer Allele teilen, während ZZ durchschnittlich 50% gleiche Allele besitzen.
  • Um den „genetischen Einfluss“ (Heritabilität) bezüglich einer Eigenschaft zu schätzen, kann nun z.B. die Formel von Falconer (1960) verwendet werden:
  • H2 = 2 (rEZ – rZZ)

Beachte: Die Differenz (rEZ – rZZ) schätzt nur 100% - 50% = 50% des genetischen Varianzanteils; sie muss daher verdoppelt werden, um den genetischen Varianzanteil zu 100% zu schätzen.

Weitere Heritabilitätsschätzer („broad heritability“) auf korrelativer Basis:
Tags: Anlage/Umwelt, Heritabilitätsschätzer
Quelle: S151
217
Kartenlink
0
Worauf basieren alle Heritabilitätsschätzer?
Alle diese Formeln basieren auf der (durchschnittlichen) genetischen Ähnlichkeit zwischen Verwandten.
  • Sie gelten nur näherungsweise und hängen von verschiedenen Annahmen darüber ab, in welcher Art und Weise Gene zusammenspielen und phänotypisch wirksam werden.
  • Eine Voraussetzung für die Berechnung von H2 ist entscheidend: Die Umweltvarianzen sollten für alle Verwandtschaftsgrade, die in den Formeln gegenübergestellt werden, gleich groß sein.
  • Wenn das erfüllt ist, dann fallen durch die Differenzbildung die umweltbedingten Ähnlichkeiten heraus; wenn das nicht erfüllt ist, dann hat H2 einen „Bias“.
  • Wenn z.B. Umweltbedingungen für näher Verwandte ähnlicher als für entfernter Verwandte Überschätzung von H2.

Beachte: Maße der "genetischen Beeinflussung" sagen nur etwas darüber aus, welcher Anteil der Variation im Phänotyp einer bestimmten Population durch die Variation im Genotyp beschrieben werden kann.
Individualisierte Schlussfolgerungen sind unzulässig, da der individuelle Phänotyp eine Konsequenz der Interaktion zwischen den spezifischen Genen und der im Laufe der individuellen Entwicklung unterschiedlichen Umwelten ist.
Tags: Anlage/Umwelt, Heritabilitätsschätzer
Quelle: S151
218
Kartenlink
0
Erkläre das Anwendungsbeispiel des Heritabilitätsschätzers für den IQ und die "Big Five".
Anwendungsbeispiele für H² (Falconer) für den IQ und die „Big Five“ (Goldberg, 1981):
angegeben sind Mittelwerte der Intraklassenkorrelation aus verschiedenen Studien; die Schätzungen des genetischen Varianzanteils (H2) beruhen auf diesen Mittelwerten:

Für IQ praktisch dasselbe Ergebnis in beiden Methoden,
für Persönlichkeitseigenschaften ist H2 bei Adoptionsmethode deutlich geringer.

Dass die Zwilingsmethode im Allgemeinen zu höheren Varianzschätzungen führt als die Adoptionsmethode ist bekannt (3 Gründe).

In älteren Metaanalysen (Zusammenfassungen über viele Studien) zeigen sich höhere Werte für – nach verschiedenen Formeln berechnete – H2 für allgemeine Intelligenz:
- Erlenmeyer-Kimling & Jarvik (1963): 87%,
- Merz & Stelzl (1977): 80%,
- Eysenck (1980): 80%

"Minnesota Study of Twins Reard Apart" (Bouchard, 1987) 
  • H2 = 54%
  • Sehr sorgfältige Auswahl der getrennt aufgewachsenen Zwillingspaare, sehr umfangreiche medizinische und psychologische Testung (ca. 50 Stunden).
  • Daten: Lebenslauf, Krankheitsgeschichte, interne med. Untersuchungen, psychophysiol. Testungen, Intelligenztestungen, Persönlichkeitstestungen, Blutuntersuchung, zahnärztlicher Befund, Augenuntersuchung, Fingerabdruck, Partnerschaft, Geschlechtsleben, Psychomotorik, Informationsverarbeitung ....
  • Auffällige Übereinstimmungen bei EZ: Aussehen, Bewegung, Pose, Partnerwahl, Vorliebe für Hobbies, Tiere u. dgl.; große zeitliche Übereinstimmung bei Ausbruch von Krankheiten, Alterungsprozess ("genetically based biological time clock") usw.
Tags: Anlage/Umwelt, Anwendung, Heritabilitätsschätzer
Quelle: S153
219
Kartenlink
0
Welche Gründe gibt es, dass die Zwillingsmethode im Allgemeinen zu höheren Varianzschätzungen führt als die Adoptionsmethode?
Siehe Beispiel:


  1. EZ teilten alle additiven und nichtadditiven Effekt. ZZ und Geschwister teilen im Durchschnitt 50% der additiven Effekte, aber weit uner 50% der nichtadditiven Effekte, denn die Change gleiche Allelkonfigurationen zu haben sinkt mit zunehmender Zahl der beteiligten Allele (bei 2 Allele beträgt sie nur 25%, bei 3 bereits nur 12,5% usw.). Und schließlich teilen Adoptivgeschwister weder additive noch nichtadditive Effekte.
  2. Die Umwelt von EZ könnte ähnlicher sein als die von ZZ (Hypothese ist empirisch kaum zu bestätigen).
  3. Persönlichkeitsbeurteilung von Geschwistern beruhen oft auf Fremdurteilen (Eltern, Erzieher) von Personen, die beide Geschwister kennen. Es kommt zum Kontrasteffekt: Die Urteiler übertreiben die Unterschiede zwischen den Geschwistern, weil sie diese primär untereinander und nur sekundär mit Geschwistern anderer Familien vergleichen - Geschwisterkorrelationen fallen zu niedrig aus.
Tags: Adoptionsmethode, Anlage/Umwelt, Zwillingsmethode
Quelle: S152
220
Kartenlink
0
Was ist bei der Interpretation von H2 zu beachten?
Beachte: Maße der „genetischen Beeinflussung“ sagen nur etwas darüber aus, welcher Anteil der Variation im Phänotyp einer bestimmten Population durch die Variation im Genotyp beschrieben werden kann.
.... In einer bezüglich eines Traits homozygoten Population (= identische Erbanlagen), zeigt diese Eigenschaft keine Heritabilität (weil anlagebedingte Varianz = Null); dennoch heißt das nicht, dass Gene bei der Entwicklung dieses Traits keine Rolle spielen!

  • Individualisierte Schlussfolgerungen sind unzulässig, da der individuelle Phänotyp eine Konsequenz der Interaktion zwischen den spezifischen Genen und der im Laufe der individuellen Entwicklung unterschiedlichen Umwelten ist.
  • Ein hohes H2 bedeutet nur, dass für eine bestimmte Population, die sich in bestimmten Umweltgegebenheiten „entwickelt“, die trait-Unterschiede zwischen verschiedenen Genotypen relativ groß sind verglichen zu umweltbedingten Unterschieden innerhalb der Genotypen.
  • ein hohes H2 bedeutet nicht bedeutet, dass eine Eigenschaft vornehmlich genetisch beeinflusst und unveränderbar durch Umwelteinflüsse ist (häufigste Missinterpretation). Wenn sich Umweltfaktoren in der Population ändern (oder auch die relativen Häufigkeiten der Genotypen), können sich auch große Veränderungen im Phänotyp ergeben - anderes H2.
Tags: Anlage/Umwelt, Heritabilitätsschätzer
Quelle: S153
221
Kartenlink
0
Kann die Frage nach dem "Grad der Erblichkeit" wissenschaftlich seriös beantwortet werden? Was ist dabei zu beachten.
Nein - Die in der Alltagspsychologie häufig gestellte Frage nach dem „Grad der Erblichkeit“ ist in der Form wissenschaftlich nicht seriös beantwortbar.
  • H2 variiert z.B. von Kultur zu Kultur – ja sogar zwischen verschiedenen Zeitpunkten ein und derselben Kultur. H2 ist also keine "Naturkonstante"; die Generalisierbarkeit über Zeitpunkte und Kulturen ist nicht möglich.
  • Zudem greift die Frage nach Erblichkeit nicht weit genug, da H2 – auch unterschiedlicher Höhe – nichts über die Wirkung möglicher Fördermaßnahmen aussagen;
  • darum sollte es aber eigentlich gehen (insb. bei Psychologen).

Daher ist die Messung von Umwelteffekten (Trainings-, Therapie-, Fördermaßnahmen etc.) ist eine sinnvolle und notwendige Erweiterung der Anlage-Umwelt Forschung.

Überlege: Angenommen in beiden Merkmalen (siehe Abbildung) sei H2 = 50%. In welchem Merkmal kann durch Trainingsmaßnahmen wahrscheinlich mehr bewirkt werden?
Tags: Anlage/Umwelt, Erblichkeit, Heritabilitätsschätzer
Quelle: S154
Kartensatzinfo:
Autor: ZoeSzapary
Oberthema: Differenzielle Psychologie
Thema: Alle Kapitel
Schule / Uni: Universität Wien
Ort: Wien
Veröffentlicht: 11.12.2019
 
Schlagwörter Karten:
Alle Karten (221)
16 PF (9)
Abgrenzung (1)
Adoptionsmethode (1)
Aggregation (1)
Aktivität (2)
Analysatoren (1)
analytische Definition (2)
analytische Persönlichkeitstheorie (5)
Anlage/Umwelt (13)
Anwendung (4)
Army-Alpha-Test (1)
Ausdruck (1)
Beispiel (3)
Big Five (11)
Binet (5)
biologische Fundierung (6)
Carroll (2)
CAT (1)
Cattell (17)
CHC (2)
Darwin (2)
Definition (13)
differentielle Psychologie (12)
Differentielle Psychologie (3)
EEG (2)
Einstellungstyp (1)
emotionale Intelligenz (1)
Entstehung (1)
Entwicklung (1)
Erblichkeit (1)
Erblichkeitsschätzer (1)
Evolution (1)
Experiment (4)
Extraversion (7)
Eysenck (14)
Faktorenanalyse (11)
Faktorenmodell (1)
Fehr (1)
Felabhängigkeit (1)
Feldabhängigkeit (2)
fMRT (1)
Forschung (22)
Fragebogen (1)
Funktionstyp (1)
Galton (3)
Gardner (3)
genetische Modell (1)
Geschichte (11)
Geschlechtsunterschiede (3)
Gray (1)
Gruppenfaktorenmodell (2)
HAWIE (1)
Heritabilitätsschätzer (6)
hierarchische Intelligenzmodell (2)
hierarchische Modell (1)
hierarchisches Modell (4)
Hochbegabung (4)
Hofstätter (2)
Horn (3)
humanistische Persönlichkeitstheorie (6)
Informationsverarbeitung (1)
Intelligenz (41)
Intelligenzmodelle (17)
Intelligenzquotient (5)
Intelligenztheorie (1)
Intervention (1)
Item Response Theorie (3)
Jung (6)
Kagan (1)
Kelly (4)
kognitive Persönlichkeitskonstrukte (9)
Komparationsforschung (2)
Korrelation (5)
Korrelationsforschung (2)
Kretschmer (1)
Kritik (12)
lokale stochastische Unabhängigkeit (1)
Mendel (1)
mental Speed (3)
mental speed (1)
Merkmal (1)
Methoden (22)
Neurale Korrelate (1)
neurale Korrelate (2)
Neurotizismus (3)
Normalverteilung (1)
Norman (1)
Objektivität (1)
operationale Definition (1)
Operationalisierung (2)
Persönlichkeit (36)
Persönlichkeitskonstrukttheorie (3)
Persönlickeit (1)
PET (1)
Praktische Intelligenz (1)
Prozessmodell (1)
Psychographie (2)
Psychologie (2)
Psychometrie (1)
Psychotizismus (2)
Quasi-Experiment (1)
R/S Konstrukt (4)
Rasch-Modell (17)
Reflexivität (1)
Regression (2)
Repression (2)
Rogers (7)
sensation seeking (2)
Sensitization (2)
Sheldon (1)
Simon-Binet-Test (1)
Skala (1)
soziale Intelligenz (1)
Spearman (4)
Stabilität (1)
Stern (10)
Sternberg (6)
Stimmung (1)
Strelau (3)
Streuung (1)
Struktur (1)
Superfaktoren (1)
Terman (2)
Test (10)
Testung (1)
Theorie (6)
Thurstone (2)
TMI (3)
Trait-Modell (7)
triarchische Intelligenztheorie (5)
Typenlehre (1)
Typologischer Ansatz (7)
Unterschiede (1)
Variable (1)
Varianz (4)
Varianzzerlegung (1)
Variationsforschung (2)
Vernon (2)
Wahrnehmung (1)
Wechsler (2)
Witkin (1)
working memory (2)
Zuckerman (3)
Zwillingsmethode (5)
Missbrauch melden

Abbrechen
E-Mail

Passwort

Login    

Passwort vergessen?
Deutsch  English