Differentielle Psychologie

Description

Flashcards on Differentielle Psychologie, created by Henriette Schneider on 19/11/2017.
Henriette Schneider
Flashcards by Henriette Schneider, updated more than 1 year ago
Henriette Schneider
Created by Henriette Schneider over 6 years ago
154
5

Resource summary

Question Answer
Wovon ist menschliches Erleben und Verhalten abhängig? Eigenschaften, sozialen Bedingungen, situative Kontexte
Was hat eine spezielle Bedeutung für das soziale Gefüge? (mit Beispiel) Psychische Differenzen z.B. individuelle Besonderheiten der Stimmungslage o. des Affektausdrucks: wichtige Informationsquelle für interpersonelle Kommunikation u. Zusammenleben in Gruppen
Beispiel: Differenzierte Leistungsgesellschaft Annahme, dass nicht alle Mitglieder der Gesellschaft alle anfallenden Aufgaben gleich gut bewältigen können: Deshalb gezielte Platzierung unter Angleichung von Anforderungsaspekten und Qualifikationsmerkmalen
Was spiegelt sich im Wortschatz der Alltagssprache wieder ? Aufmerksamkeit, die individuellen Eigenarten in der alltäglichen Selbst- und Fremdwahrnehmung zuteil wird (umfangreich u. hochgradig differenziert zur Beschreibung v. menschlicher Erlebnis- und Verhaltensvariation)
Differentielle Psychologie - Definition .. erforscht Unterschiede im Erleben und Verhalten von einzelnen Menschen und Menschengruppen
Wovon sind diese Unterschiede abhängig? 1) Eigenschaften der Person 2) soziale Bedingungen 3) situative Kontexte
Fokus dieser empirischen Wissenschaft 1) systematische Erlebens- und Verhaltensvariationen 2) die grundsätzlich reproduzierbar sind und sich 3) von zufallsbedingten Unterschieden (=Messfehlern) abgrenzen lassen
Beginn der Psychologie Gründung des ersten Instituts für "Experimentelle Psychologie" 1879 durch Wilhelm Wundt in Leipzig
Begründer der differentiellen Psycholgie William Stern
Buch von William Stern "Über Psychologie der individuellen Differenzen": Idee einer DP mit empirisch-statistischen Ansatz; erste systematische Begründung u. Darstellung der Differentialpsychologie: wegweisend !
Forschungshinhalte Experimentelle Psychologie vs. Differentielle Psychologie (damals) Allgemeine Psychologie: universelle Gesetzmäßigkeiten (nomothetische Gesetzgebung) Differentielle Psychologie: Erfassung individueller Besonderheiten (ideographisch)
Sander'sche Parallelogrammtäuschung Allgemein: In Abhängigkeit der Längen v. L u. R fällt T% unterschiedlich aus Differentiell: Ausmaß von T% unterscheidet sich in unterschiedlichen Gruppen (bei weißen Vpn höher als bei Schwarzafrikanern)
Allgemeine Psychologie: Was sind individuelle Unterschiede ? Messfehler
Differentielle Psychologie bzgl. Sander'sche Parallelogrammtäuschung Aussagen, welche die Ursachen u. Entstehungsbedingungen von individuellen Schwankungen bei Personen(-gruppen) um Inhalt haben.
Allgemeine Psychologie vs. Differentielle Psychologie (heute) wichtige, methodisch komplementäre Ergänzung in der Erforschung zeitlich und transsituativ stabiler Verhaltensweisen
Allgemeine Psychologie - Messfehler mögl. systematische Variationen inhaltliche Aufklärung durch differentielle Psychologie: feinere Abstufung hinsichtl. ihres Geltungsbereichs; bessere Prognosemöglichkeit
Was ermöglicht das Zusammenspiel von differentieller und allgemeiner Psychologie? Relevante Abweichungen von allgemeinpsychologischen Gesetzmäßigkeiten aufzuzeigen
Womit befasst sich die empirische Wissenschaft (Erfahrungswissenschaft) der differentiellen Psychologie ? .. mit den Ursprüngen, der Beschaffenheit und der Beeinflussbarkeit von verhaltensrelevanten psychischen Unterschieden zw. Individuen und Gruppen
Differentialpsychologische Fragestellungen Nicht nur Unterschiede zw. Personen/-gruppen zu einem geg. Zeitpunkt (Querschnittsbetrachtung), sondern auch Unterschiede innerhalb einer Person (Personengruppe) zu mehreren Zeitpunkten bzw. Situationen (Längsschnittbetrachtung)
Womit befasst sich die Differentielle Psychologie? .. mit den Ursprüngen, der Beschaffenheit und der Beeinflussbarkeit von verhaltensrelevanten psychischen Unterschieden zwischen Individuen und Gruppen
Was ist der Gegenstand der Differentiellen Psychologie (bzw. wie kann er beschrieben werden) ? Wissenschaftliche Erforschung systematischer Variationen im Erleben und Verhalten einer Person (intraindividuelle Unterschiede) und zwischen Personen (interindividuelle Unterschiede)
Welche Eingrenzung ist dabei wichtig? EINGRENZUNG auf systematische Erlebens- und Verhaltensvariationen, welche grundsätzlich reproduzierbar sind, sowie die AUSGRENZUNG zufallsbedingter Variationen, die aus Mess-u/o. Beobachtungsfehlern stammen
Worin besteht ein enger Zusammenhang ? Methoden bzw. Methodenentwicklung der Differentiellen Psychologie und Testtheorien (= Daten- und Messtheorien, welche systematischer Variationsquellen v. unsystematischen (zufälligen) Fehlern separieren
Abgrenzung des Begriffs der differentiellen Psychologie v. Terminus Persönlichkeitspsychologie = uneinheitlich; manchmal Synonym; manchmal Differentielle Psychologie als Oberbegriff; Unterscheidung zw. Leistungsbereich und Persönlichkeitsbereich: analog zu Unterteilung psychodiagnostischer Erhebungsinstrumente
Was ist nicht Gegenstand der differentiellen Psychologie? pathologische Merkmale und Dispositionen (Schizophrenie etc.)
Welche zwei wichtigen Voraussetzungen für differentialpsychologische Forschung gibt es ? Bei allen Merkmalen, die sich zur Charakterisierung v. Menschen eignen, muess es sich um 1) quantifizierbare Merkmale handeln 2) eine Streuung der Merkmalsausprägung gegeben sein
Quantifizierbare Merkmale verlangen präzise Definitionen, was man unter einem Merkmal versteht und wie man dieses messen kann
Operationalisierung (quantifizierbare Merkmale) Eindeutige Beschreibung durch jene Operationen (Messvorschriften), die zur konkreten Erfassung des Merkmals vom einzelnen Forscher definiert werden
gegebene Streuung der Merkmalsausprägung thematisiert die Sinnhaftigkeit differentialpsychologischer Fragestellungen z.B. "Müssen sie regelmäßig schlafen?" -> kaum Varianz in den Antworten
Was ist Grundlage und Voraussetzung für alle Forschungsaktivitäten ? Differentiell-psychologische Methodenentwicklung
Wie viele Hauptfragestellungen ergeben sich aus der Zielsetzung der differentiellen Psychologie? Fünft Hauptfragestellungen, vier davon stellen die klassisch-methodische Zugänge nach W. Stern dar
Differentiell-psychologische Methodenentwicklung - enge Beziehung wozu ? Psychologische Diagnostik (Erfassung systematischer Variationen im Erleben und Verhalten)
Was soll hingegen als differentiell-psychologische Methodenentwicklung bezeichnet werden? 1) Entwicklung und Evaluierung neuer Erhebungsmethoden (Tests, Fragebogen) 2) Ausarbeitung formaler Modelle und Methoden zur psychometrischen Qualitätskontrolle dieser Erhebungsmethoden (Gütekontrolle im Rahmen sog. Testtheorien)
Wiener Forschungsschwerpunkt ? Seit Gründung des Instituts durch Karl Bühler (1922): Angewandte Psychometrie (Testanwendungen- und entwicklungen) sowie theoretische Psychometrie (Erforschung testtheoretischer Grundlagen und Entwicklung neuer testtheoretischer Modelle und Methoden)
Grenzen der Interpretierbarkeit differantialpsychologischer Ergebnisse .. hängen eng mit der (testtheoretischen) Qualität des verwendeten Messinstruments (Tests) zusammen: siehe Beispiel Skrip -> dimensionsbezogener Unterschied ?
Wie klärt man diese "Interpretationsprobleme" ? .. mit diversen Qualitätsprüfungsverfahren Ergebnis: Entwicklung eindimensionaler, verrechnungsfaire Testinstrumente
Die vier methodischen Zugänge nach William Stern (1911) Psychographie, Komparationsforschung, Variationsforschung, Korrelationsforschung (evt. weitere Erklärung)
Variationsforschung + Beispiel Wie unterscheiden sich Personen bzw. Personengruppen in einem Merkmal: Varianz der Ausprägung eines Merkmals Beispiel: Geschlechts- o. kulturvergleichende Untersuchungen
Intraindividuelle Schwankungen zeitliche bzw. situative Schwankungen d. Erlebens und Verhaltens
Wie werden intraindividuelle Schwankungen dargstellt und von wem ? Cattell: dreidimensionale Darstellung in Form eines Datenquaders
Varianzforschung (heute) Frage nach umwelt- bzw. erbbedingten Varianzteilen: Stichproben eineiiger oder zweieiiger Zwillinge u. deren unterschiedl. Merkmalsvarianz -> Untersuchung nach Kausalzusammenhängen in der differentiellen Psychologie
Korrelationsforschung Behandelt Fragen, wie Eigenschaften miteinander zusammenhängen: statistischer Zusammmenhang (Ähnlichkeit) von zwei oder mehreren Merkmalen, für die von denselben Personen Daten vorliegen (abhängige Daten)
Korrelationsforschung - Beispiele Zusammenhang Lügen - Stehlen; Schulleistung in Physik und Mathematik
Wie wird Korrelationsforschung durchgeführt ? Unter Einbezug der Zeitdimesion werden Merkmale einer Person über eine Reihe von Situationen hinweg verglichen
Korrelationsforschung - Historie Seit mehr als einem halben Jahrhundert nehmen sie einen besonders breiten Raum innerhalb der differentiellen Psychologie ein
Korrelationsforschung - Beispiel eines speziellen mathematisch-statistischen Verfahrens (wichtigstes) Faktorenanalyse Ziel: aus vielen Einzelkorrelationen nur wenige, wesentliche Faktoren herauszufiltern; Großer Einfluss auf Entwicklung sog. Intelligenz- und Persönlichkeitstheorien
Psychographie (allgemein) - älteste der vier methodischen Zugänge - Analogon zur Variationsforschung - Personen statt Merkmale als primäre Erhebungseinheit!
Psychographie - Ziel (früher u. heute) Beschreibung von Einzelindividuen in Bezug auf viele Eigenschaften früher: fehlende bzw. besonders ausgeprägte Merkmale (Künstler,etc.) heute: Vollständigkeit der Beschreibungsdimensionen
Psychographie - Voraussetzungen - verfeinerte Erhebungsmethoden (tests, Fragebögem, etc.), die aussagekräftige Profilinterpretationen ermöglichen - bzgl. der interessierenden Merkmalsdimension präziser gefassten Fragestellungen (Arbeitsplatzanalyse, Anforderungsprofile)
Psychographie - Anwendungsbereiche Angewandtes Fach Psychologische Diagnostik (Berufs- und Eignungspsychologie, Beratungsinstitutionen) & klinische Psychologie Beispiel: HAWIE "Allg. Intelligenzhöhe" & "Intelligenzstruktur"
Komperationsforschung Bestimmung der Ähnlichkeit zw. zwei oder mehreren Personen, die durch eine Reihe von Merkmalen charakterisiert sind: Identifizierung von Personen(-gruppen), die sich in Bezug auf viele Merkmale ähnlicher sind als andere
Komperationsforschung - Nutzen bzw. Beispiel Begabungs- oder Interessensschwerpunkte finden o. Risikogruppen ausfiltern
Typologie von Kretschmer (1921) Körperbautypen werden mit gewissen Charaktereigenschaften in Verbindung gebracht
Komperationsforschung - neure Methoden Clusteranalyse, Latent Class Analyse, Konfigurationsfrequenzanalyse: Personen werden nach ihrer Ähnlichkeit in interessierende Merkmale zu einem Typus (Cluster) so zusammengefasst, dass Merkmalsunterschiede zw. den Personen desselben Typs kleiner sind als jene zw. Personen mit verschiedener Typzugehörigkeit
Erweiterung des Stern'schen Schemas durch Cattell (1957) Erweiterung mit Dimension "Situationsabhängigkeit v. Verhalten"
Was ergibt sich aus dieser Erweiterung? 6 unterschiedliche Betrachtungsweisen von Zusammenhängen ("Korrelationstechniken") innerhalb der differentiellen Psychologie -> Bezeichnung durch Großbuchstaben
Differentialpsychologische Fragestellungenergeben sich damit aus .. ? .. der Betrachtung von Zusammenhängen zwischen (1) Personen und Merkmalen (in einer Situation): Q-, R-Technik (2) Personen und Situationen (hinsichtl. eines Merkmals): S-, T-Technik & (3) Merkmalen und Situationen (einer Person): O-,P-Technik
Cattell's Schema KLÄRUNG!!!
Was wird durch "Typisierung" versucht ? Personen nach Ähnlichkeit hinsichtlich wesentlich erscheinender Merkmale zu gruppieren
Was ist das Hauptproblem historischer Typologien ? Methoden und Kriterien, um eine eindeutige Platzzuweisung des einzelnen vorzunehmen
Wie versucht man dieses Problem heute zu lösen ? Durch statistische Typisierungsverfahren: Personen werden nach ihrer "Ähnlichkeit" zu einem Typus im interessierenden Merkmal derart zusammengefasst, das Merkmalsunterschiede zwischen Personen desselben Typus kleiner sind ...
Historische Beispiele von TYPOLOGIEN Hippokrates: Gruppierung der Individuen durch Vorherrschen eines "Körpersafts" in vier Temperamente: Sanguiniker (Blut), Phlegmatiker (Schleim), Choleriker (gelbe Galle) & Melancholiker (schwarze Galle)
Historische Beispiele von TYPOLOGIEN Kretschmer: Charaktertypologie aufgrund von Konstitutionstypen (pyknisch, athletisch, etc.)
Historische Definitionsversuche von TYPUS Stern: Typus = vorwaltende Disposition psychischer o. psycho-physischer Art die einer Gruppe von Menschen in gleicher Art zukommt Rohracher: durch Merkmalskomplex charakterisierte Gruppe; Einzelmerkmale können im verschied. Grad vorhanden sein
Welche beiden zentralen Forschungsansätze lassen sich aus der Stern'schen Personen x Merkmals-Matrix ableiten ? (a) aus Komperationsforschung -> typologischer Ansatz (b) aus Korrelationsforschung -> das Eigenschaftsmodeel (Trait-Modell)
Eigenschaftsmodell (Trait-Modell) Auf jeder Eigenschafts-Dimension beliebig feine Abstufungen möglich und messbar, sodass aus der Kombination mehrerer Dimensionen präzise Charakterisierungen u. vielschichtige Differenzierungen der Persönlichkeitsbeschreibung resultieren
Voraussetzungen u. Vorteil des Eigenschaftsmodells Voraussetzung: Quantifizierbare Eigenschaften (Traits o. Faktoren) Vorteil: Ökonomie der Beschreibung (mit weniger Persönlichkeitsfaktoren lassen sich mehr Personen eindeutig charakterisieren)
Problem des Eigenschaftsmodells Kommunikation über Traits (alltagssprachliche Begriffe haben großen "Bedeutungshof" -> implizite Hypothesen) Forderung Bridgman: hinreichend genaue Operationalisierung der Traits
Beziehung zwischen den beiden Forschungsansätzen Eysneck: Affektivität mittels zweier Dimensionen (Traitmodell) - ermittelt an vielen Personen Gegenüberstellung mit Ansatz von Hippokrates: jeweils niedrige bis mittlere Faktorenausprägungen charakterisieren recht gut die vier Temperamente
Trait-orientierte Forschung - Beschreibung/Operationalisierung v. Traits, in denen es individuelle Unterschiede gibt - Generalität v. Traits (Situationsabhängigkeit) Frage, wie leicht ein Merkmal durch verschiedenen "Situationsdruck" modifiziert werden kann bzw. wie generell es auftritt - Stabilität v. Traits (über die Zeit) - Ursachen v. Traits (z.B. Anlage-Umwelt-Problematik: welcher Anteil der Gesamtvarianz eines Merkmals auf genetische, welcher auf Umwelteinflüsse zurückzuführen?) - wechselseitige Abhängigkeiten v. Traits - Änderbarkeit v. Traits (z.B. Trainierbarkeit
Bedeutung "Stabilität von Traits" ! (siehe S. 19 Skriptum) Konstanz der interindividuellen Unterschiede über Messzeitpunkte -> nur wenn mittelfristig konstant, kann man von "Aspekten d. Persönlichkeit" sprechen
Unterscheidung Variable u. Variablenwert Variable: Jeder Personen einer Population kann in jeder Variable einen Variablenwert (Merkmalsausprägung) durch Messung zugewiesen werden (keine "persönlichen" Merkmale) -> Variablenwerte charakterisieren einzelne Personen -> Variablen charakterisieren Populationen
Wie werden Merkmalsausprägungen einer einzelnen Person beurteilt? .. im Vergleich zur Population interpretiert (Populationsbezogenheit differentialpsychologischer Aussagen)
Analytische Definitionen - Forscher geben zu verstehen, was sie mit einem bestimmten Begriff bezeichnen wollen: Verständnis bzgl Untersuchungsgegenstand wird transparent gemacht - müssen empirisch prüfbar sein; meist ist dies bei analytischen Definitionen nicht (unmittelbar) der Fall
"Überbrückungsproblem" Steyer & Eid Aufgabe, theoretische Konstrukte wie Aggressivität, Intelligenz mit konkreten, empirisch messbaren Variablen zu verbinden - wie wissenschaftssprachlich gefasste Begriffe in Beobachtungs- o Messvorschriften umgesetzt werden können
Sonderfall: Qualitative Forschung Bedeutungsanalyse steht im Vordergrund: Welchen Sin geben Individuen oder Gruppen bestimmten Begriffen, wie sie damit operieren u. welche Konsequenzen das für die Akteure hat
Empirisch-quantitative Forschung - analytische Definitionen reichen vielfach nicht aus, weil Messvorschriften fehlen
Operationale Definitionen - Ursprung Bridgman: ursprüngl. nur für Physik definier; 1945 Ausweitung auf Sozialwissenschaften
Operationale Definition Standardisiert einen Begriff durch: - Angabe der Operationen, die zur Erfassung des durch den Begriff bezeichneten Sachverhalts notwendig sind - oder durch Angabe der messbaren Ereignisse, die das Vorliegen des Sachverhalts anzeigen (Indikatoren) -> ausführliche Bedeutungsanalyse -> bisherige wissenschaftl. Erkenntnisse müssen berücksichtigt werden
Wozu führt der vermeintliche Nachteil, wenn operationale Def. eines Begriffs bereits präzise vorliegt aber immer noch verschiedenartige Operationalisierungen denkbar sind ? Führen verschiedene Operationalisierungen desselben Begriffs zu widersprüchlichen Ergebnissen, so ist der Begriff offensichtlich noch nicht präzise genug definiert ! (wechselseitige Präzisierung)
Entwicklung der Differentiellen Psychologie -In den Anfängen um 1900 vielfach in angewandt-psychologischen Fragestellungen eingebunden - erste testpsychologische Untersuchungen v. Fragen d. Pädagogischen Psychologie u. klinischen Psychologie mitgetragen
Besondere Bedeutung d. differentiellen Psychologie Psychologische Diagnostik für unterschiedliche Anwendungsbereiche wissenschaftlich fundieren
Differentielle Psychologie - Beschäftigung mit unterschiedl. Ansätzen (1) zeitüberdauernd stabil angesehende Eigenschaften (Personalismus bzw. Dispositionismus) (2) mit dem Einfluss situativer Gegebenheiten (3) mit der Interaktion zwischen Person und Situation (Interaktionismus)
Anfänge psychologischer Testung - Asien vor mehr als 4000 Jahren (2200 v. Chr.) überprüften Chinesen die Regierungspositionen über die "Fitness" -> Leistung in 6 "Basiskünsten"
Chinesische Testung - dahinter stehende Annahmen - Menschen unterschieden sich bzgl. bestimmter Traits - Traits stabil und können generalisiert werden (in Europa in Antike keine formellen Tests)
Wurzeln der differentiellen Psychologie: Darwin, Mendel & Galton grundlegende Ideen für die wissenschaftl. Beschäftigung individueller Differenzen kamen aus der Biologie u. der Genetik d. 19. Jhd. (siehe Vorderseite)
Darwin "On the origin of species by the means of natural selection": wiedersprach aristotelischen Artenbegriff (Unveränderlichkeit d. Art) - Entwicklung d. Arten durch natürliche Auslese - Kampf ums Überleben der Bestangepassten - individuelle Differenzen notwendige Voraussetzungen für Selektion u. Evo. - Variationsvielfalt im Phänotyp: rascher Wechsel d. Lebensbedingungen -> an neue Lebensumstände besser "angepasst" - phänotypische Variationen müssen genetisch bedingt sein (Selektionsvorteil) - je ähnlicher die Individuen, desto gefährdeter
Mendel - Kreuzungsversuche mit Pflanzen: angeborene Eigenart durch zufällige Kombination v. Erbanlagen -> Gesetze blieben unbeachtet bis Correl, Tschermak und deVries wieder entdeckt -> intensive Erforschung der Erblichkeit von körperlichen und psychologischen Merkamlen, Konzept- u. Modellentwicklungen
Galton - Vetter Darwins (von ihm beeinflusst) - vielseitigster Wissenschaftler d. 19. Jhd. - Begründer d. wiss. Untersuchungen indiv. Differenzen - Individualität des Fingerabdrucks; Übereinanderprojektion mehrerer Fotos - Zwillingsmethode DER Untersuchungsansatz, um Erb- und Umweltfaktoren zu entflechten - übertrug Gedanken der Erblichkeit v. physischen auf psychische Merkmale - "Hereditary Genius" (Stammbaummethode: Ballung spezif. Begabungen in Familien) - "Index of Correlation" v. seinem Schüler Karl Pearson zum Korrelationskoeffizienten weiterentwickelt - verwendete erstmals den begriff des Tests u. testete Intelligenz in einem anthropometrischen Laboratorium - differenzierte Daten über Begabungsunterschiede nur durch objektive Messungen an einer Vielzahl v. Personen - Intelligenzmessungen: wesentliche Intelligenzgrundlage Verarbeitung von Wahrnehmungsreizen (entspricht John Locke)
Zitat Galton über Sinne Die einzige Information über äußere Ereignisse, die uns erreicht, scheint den Weg über unsere Sinne zu nehmen; je empfänglicher die Sinne für Unterschiede sind, desto größer ist die Grundlage, auf der unser Urteilsvermögen und unsere Intelligenz agieren können."
Galtons Intelligenzmessung - James McKeen Cattell - weiterentwickelt (Intelligenz bzgl. Sinne) -> Sackgasse: mangelte an hohen Korrelationen sowie externe Kriterien -> Leistungsfähigkeit d. Sinnesorgane nicht unmittelbar geeignet, um Intelligenz zu messen - gilt als Begründer der Testpsychologie in USA
Galton - Charles Spearman - führte theoretisch-statistische Arbeiten weiter: Grundlage der Faktorenanalyse = erstes quantitative Modell der Struktur menschlicher Intelligenz
William Stern - Begründer der Differentiellen Psychologie - geb. 1871 Berlin, gest. 1938 North Carolina - Studium der Philosophie und Psychologie in Berlin bei H. Ebbinghaus - Monographie: "Über die Psychologie der individuellen Differenzen (Ideen zu einer differentielen Psychologie)" - wegweisend: experimentelle Untersuchungen allgemeinpsychologischer Gesetzmäßigkeiten - 1907: Außerordentliche Professur in Breslau; 1911: "Die Differentielle Psychologie Psychologie in ihren methodischen Grundlagen" -> Grundlegung als wissenschaftliche Disziplin ! - schrieb wichtige Werke zur Intelligenzdiagnostik (Erfinder des IQ), zur Kinder- und Entwicklungspsychologie, zur Pädagogischen, Arbeits- und Forensischen Psychologie u. zur Allgemeinen Psychologie
Stern war in vielem seiner Zeit voraus.. - Gegenüberstellung von interindividuell variierenden psychischen Eigenschaften (Traits) - intraindividuell variierenden Zustandsmerkmalen (States) - Betonung d. Wichtigkeit der methodisch-statistischen Fundierung differentielpsychologischer Forschung (u.a. Bedeutung v. Längsschnittstudien)
Differentielle Psychologie aus Sicht Sterns theoretische als auch angewandte Wissenschaft
Welche zwei Hauptziele hat die ANGEWANDTE Wissenschaft der Differentialpsychologie nach Stern ? 1) Psychognostik oder Menschenkenntnis (heute: Psychologische Diagnostik, Psychodiagnostik) 2) Psychotechnik oder Menschenbehandlung (heute: psychologische Intervention); der Begriff Psychotechnik ist später nur auf arbeitspsychologische Fragestellungen eingeschränkt worden (Fragen d. Arbeitsplatzgestaltung) -> bis heute Gültigkeit v. Sterns Systematik
Welchen entscheidenden Impuls lieferte Alfred Binet der Testpsychologie? .. zur Einführung individueller Skalen
Was fiel ihm bei der Beschäftigung von Begabungsunterschieden bei Kindern auf ? - geringe Zuverlässigkeit der ärztlichen "Schwachsinnsdiagnosen" (ein und dasselbe Kind im Abstand v. weniger Tage in verschiedenen Kliniken unterschiedlich beurteilt)
Was legte Binet gemeinsam mit dem Arzt Theophile Simon als erstes vor ? Die erste kognitiv orientierte Intelligenzskala (in Abkehr von anthropometrische Maßen Galtons) -> zugrundeliegender Intelligenzbegriff: "Art der Bewältigung einer akt. Situationen", nämlich "gut urteilen, gut verstehen und gut denken"
Was war neu ? Aufgaben waren systematisch ausgewählt hinsichtlich aufsteigender Schwierigkeitsgrade u. hinsichtl. "Außenkriterien": Alter und Lehrerurteil ("Intelligenz") -> Konstruktion alterssensitiver Aufgaben: für bestimmtes Lebensalter geeignet, das von 50-70% d. Kinder genau dieser Altersstufe gelöst
Wie viele Items pro Stufe? 5 Items pro Stufe für die Alersstufen 3-15 Jahre
Wie wird das "Intelligenzalter" bestimmt ? (Binet) Ausgehend von der Mitte des Jahres, dessen sämtliche Aufgaben gelöst wurden (Grundalter!), bringt jede zusätzliche Itemlösung einen Zuwachs von einem Fünftel eines Jahres. Beispiel (vgl. Tab.): Intelligenzalter = 7,5 + 7/5= 8,9 Jahre ->Differenz: IA-LA
Binets Iteminhalte Gedächtnis, Vorstellungskraft, Aufmerksamkeit, Verständnis, Willensstärke, motorische Fertigkeiten, moralische Haltungen
Kritik am Simon-Binet Test - auffinden von trennscharfen Aufgaben für höhere Altersstufen (ab 16) scheiterte, weil Intelligenzentwicklung den Verlauf einer Wachstumskurve zeigt: zunächst rasch, dann immer langsamer - gleiche Differenz zw. IA und LA kann verschiedenes bedeuten; um Verzerrung zu vermeiden schlug Stern Intelligenzquotienten vor - Probleme mit Objektivität: Testleiterbewertung - Items zu verbal (schichtabhängig?) - Eichung mangelhaft: Oberschichkinder durchschnittlich 18 Monate über Binet-Normen
Was sollte der IQ von Stern bzgl. des "Binet-Tests" gewährleisten? Konstanz der Interpretierbarkeit v. Leistungsvorsprüngen- zw. Rückständen auf verschiedenen Altersstufen (Quotient theoretisch nur dann legitim, wenn die Leistungszunahme mit dem Alter linear wächst) -> negativ beschleunigter Entwicklungsverlauf wird festgestellt; auch Stern löst dieses Problem nicht
Probleme bei Binet-Test und Stern-IQ im Falle der Testung v. Erwachsenen - negativ beschleunigter Entwicklungsverlauf intellektueller Leistungen - Scheitelpunkt bei ca. 20-25 Jahren - keine Aufgaben auffindbar, die zw. höheren Altersgruppen differenzieren
Erweiterung des IQ-Konzepts durch Wechsler - Aufgaben, die für alle Altersgruppen einsetzbar sind (große Schwierigkeitsrange in Testaufgaben) - Intelligenzmaß: Abweichungs-IQ Def.: IQ= 100+15 . x-M/s -> altersspezif. Rohwertverteilung (Abweichungs-IQ<100 unterdurchschn.; >100 überdurchschn.)
Was ist der Abweichungs-IQ faktisch? (Wechsler: obwohl von eimenm "Intelligenz-Quotient" gesprochen wird) Standardwert
Was folgt aus dem Zentralen Grenzwertsatz? IQ ist annähernd normalverteilt (da IQ von vielen Faktoren abhängt (genetisch, umweltbedingt) -> bei Kenntnis von M und s der NV kann für jeden IQ sofort angegeben werden, wie viel Prozent der Pop. im Test gleich gut sind. bzw. schlechter abschneiden
Bedeutung von: μ & σ μ= Populationsmittelwert σ= Standardabweichung in der Population
Exkurs Es gibt viele NV, aber nur EINE Standardnormalverteilung
Kritik am IQ-Konzept - grobes Globalmaß der Intelligenz, das bei den meisten diagnostischen Fragestellungen nicht ausreichen wird - vielfach Kompensationsmöglichkeit schlechter Subtestleistung durch gute Subtestleistungen unerwünscht, da ja grade darin die Schwächen im Teilbereich dargestellt werden -> diese zu kennen für Interventionsmaßnahmen v. entscheidender Bedeutung
Wobei handelt es sich bei den bisher erwähnten Testverfahren? (Binet,Stern) Individual-Tests, da nur eine Testperson auf einmal untersucht werden kann; Handhabung durch einen erfahrenen Testleiter notwendig (Einzeltestung)
USA - 1. Weltkrieg - welche Notwendigkeit ergab sich? Hunderttausende Rektruten testen, um sie etwa verschied. Waffengattungen zuzuordnen -> Entwicklung v. Gruppen-Tests: Army-Alpha-Test u. sprachfreier Army-Beta-Tests für Analphabeten u. nicht englisch sprechende Vpn -> konnten simultan einer großen Zahl v. Probanden vorgegeben werden u. waren ökonomisch in Herstellung und Auswertung -> erst diese Testentwicklungen ermöglichten empirisch-differentialpsychologische Forschung !
Experiment vs. Quasi-Experiment Experiment: Studium v. Phänomenen (AV) unter kontrollierten Bedingungen, wobei die Untersuchungseinheiten (meist Vpn) den UV randomisiert zugewiesen werden -> Bedeutung: nur nach Durchführung eines Exp. kausale Ergebnisinterpretation mögl. Quasi-Experiment: Studium von Phänomenen (AV) unter kontrollierten Bed., wobei die Vpn den UV nicht randomisiert zugewiesen werden (können); UV eine Auswahl aus "vorgegebenen Gruppenzugehörigkeiten" -> keine Kausalinterpretation möglich
Varianz (s²) ist ein Maß für Verschiedenheit (Variablilität) von Messwerten eines Merkmals (Variable) in einer Stichprobe; s² wird umso größer, je mehr Messwerte vom gemeinsamen Mittelwert abweichen (Formel siehe Skriptum)
Korrelation Maß für die Stärke eines linearen Zusammenhangs zwischen zwei Variablen (Formel siehe Skriptum)
Korrelation - Interpretation Eine dem Betrag nach hohe Korrelation zwischen zwei Variablen darf selbst dann, wenn sie statistisch abgesichert (signifikant) ist, nicht kausal interpretiert werden (im Sinne "wenn-dann"), weil der Korrelationskoeffizient nicht sagt, welche v. vier möglichen Kausalinterpreationen zutreffend ist
Die vier möglichen Kausalinterpretationen 1) X beeinflusst Y kausal 2) Y beeinflusst X kausal 3) X und Y werden von einer dritten pder weiteren Variablen kausal beeinflusst 4) X und Y beeinflussen sich wechselseitig kausal "Eine Korrelation zw. 2 Variablen ist eine notwendige, aber keine hinreichende Voraussetzung für kausale Abhängigkeiten." -> liefern Hinweise
Was ist wichtig bei der korrelationsstatistischen Überprüfung v. Zusammenhangshypothesen? Stichprobe repräsentiert tatsächlich die gesamte Population, für die das Untersuchungsergebnis gelten soll ("stichprobenabhängigkeit")
Beispiel: Zusammenhang zw. Schulleistung u. Intelligenz Für Population aller Schüler rho= .71 Abbildungen (Skript) zeigt wie sich der "wahre" Zusammenhang bei Stichprobenselektion ändern kann: 1. Teilstichprobe r=.59 2. Teilstichprobe r=.48 Extremgruppenselektion nach dem IQ (Heterogenisierung) r=.81
Prinzip der Varianzzerlegung - wieso interessant? Interessant, weil es zeit, wie in der Differentiellen Psychologie Fragen nach Kausalzusammenhängen untersucht werden können
Varianzzerlegung - Beispiel Skriptum Gesamtvarianz lässt sich in zwei additive Komponenten ("Varianzanteile") zerlegen s²(g)=s²(g/f) + s²(g/h) 100%= X% + Y% -> Y% berechenbar: s²(g/h) = s²(g)-s²(g/f) Y% = 100% - X% KLÄRUNG DES BEISPIELS
Anlage- Umweltvarianzanteile [V(A), V(U)] können an Gesamtvarianz des Merkmals M [s²(M)] geschätzt werden: s²(M)=V(A)+V(U)
Voraussetzungen für Varianzzerlegung - kein Zusammenhang zw. den beiden Varianzanteilen - fehlerfreie Erfassung des Merkmals M (praktisch nie erfüllt?)
Regressionseffekt ("Regression zur Mitte") - Galton als verwendete als erster den Begriff Regression (=Rückschritt, nicht die stat. Vorhersage): Vererbung v. Intelligenz -> Söhne hochintelligenter Väter sind im Gruppendurchschnitt auch hochintelligent, aber nicht im selben Ausmaß, wie die Väter -> guten Bedingungen in Parentalgeneration nicht gegeben - wichtig: Planungsfehler bei Stichprobenauswahl vermeiden ZUSAMMENGEFASST: Die mangelnde Reliabilität von Messinstrumenten ebenso wie die höhere Wahrscheinlichkeit mittelmäßiger Rahmenbedingungen lassen extreme Messwerte, bei wdh. Erfassung, zur größten Dichte der Merkmalsverteilung regredieren
Was ist beim Regressionseffekt zu beachten ? Bedeutet nicht, dass die Streuung des Merkmals kleiner wird, weil ja nicht alle Messwerte zum Mittelwert tendieren; einige mittlere Werte tendieren sogar in die Extrembereiche, d.h. es findet letzlich nur ein Austausch zwischen extremen u. mittleren Positionen statt. -> Varianz quadratisches Streuungsmaß, kann eine Messwertänderung in Richtung Extremposition mehrere Änderungen zur Mitte "aufwiegen"
Welche Folgen haben Regressionseffekte für quasiexperiementelle Untersuchungen ? Können sowohl ohne Folgen als auch zu völlig falschen Schlussfolgerungen führen
Faktorenanalyse (FA) als Skalenkonstruktionsmethode - Verfahren zur Informationsverdichtung (wiss. Ökonomisierung) - Ziel: die einem Variablensatz zugrunde liegenden Dimensionen (=latente Variablen) rechnerisch zu ermitteln
Was ist der Ausgangspunkt der Faktorenanalyse ? (Beispiel Skript S. 39) Standardisierte Variablen und deren Interkorrelationen (s. Interkorrelationsmatrix) FA versucht die Zusammenhänge, zwischen den variablen einfacher zu erklären, indem diese Zusammenhänge auf wenige gemeinsame Faktoren zurückgeführt werden -> können nur jene Eigenschaften "extrahiert" werden, die in den Variablen enthalten sind
Idee der FA - Variablen haben verschieden große Varianzen - da es darum geht, die Varianzanteile zu bestimmten, die sich durch gemeinsame Faktoren erklären lassen, müssen zunächst die Varianzen "vereinheitlicht" werden (ohne Informationsverlust), weil Korrelationen geg. linearer Messwerttransformationen invariant sind -> Standardisierung !
Lineare Messwerttransformation siehe Skript: Z hat nun Mittelwert = 0 Varianz = Standardabweichung = 1
Wie ist die Höhe der Korrelationen zw. je zwei standardisierten Variablen gekennzeichnet? durch "Überlappungsbereiche" -> für k Variablen ergibt sich ein Geflecht von Üperlappungen u. jeweils variablenspezif., eigenständigen Bereichen
Was ist nun die Aufgabe der FA? Geflecht einfacher zu strukturieren -> Geimsames v. Speziellem zu trennen
Was ist das Ziel? Dass jeder Faktor die maximale gemeinsame varianz (v. Tests o. Items) erklärt, die noch niht durch andere Faktoren erklärt worden sind -> Faktoren werden meist so bestimmt, dass sie miteinander nicht korreliert sind ("orthogonale Fakoren")
Ladungszahlen Varianzanteilen entsprechen sog. Ladungszahlen: Aus den der Größe nach geordneten Ladungszahlen kann auf die inhaltliche Interpretation rückgeschlossen werden (Siehe Skriptum)
Was passiert, wenn man gleich viele Faktoren "extrahiert" wie Variablen in die Analyse aufgenommen wurden? Gesamtvarianz kann durch die Faktoren erklärt werden, aber Informationsverdichtung hat nicht stattgefunden
Was ist also zu fordern? Anzahl der Faktoren (m) muss soll kleiner als die Anzahl der in die Analyse eibezogenen Variablen (k), also m<k (beacte Index ^4 auf S. 41)
Multiples FA-Modell von Garnett u. weiterentwickelt von Thurstone Bestimmungsgleichung für eine Variable Xi (siehe Skriptum) -> Ladungszahlen können auf drei verschied. Arten interpretiert werden: 1) aij= Gewicht d. Faktors Fj für Variable Xi 2) aij= Korrelation des Faktors Fj mit Variable Xi 3) aij²= Varianzanteil der i-ten variable, der durch den j-ten Faktor erklärt wird (interpretiert wie Korrelationen?)
Zwei Typen der FA mit verschiedener Zielsetzung 1) Exploratorische FA: Soll die latente Faktorenstruktur einer Menge korrelierender Varianzen "erkunden" -> kein Vorwissen (Höhe v. Ladungen) -> deskriptiv-explorierend 2) Konfirmatorische FA: Ziel, eine a-priori bestehende Faktorenstruktur (aus Literatur bekannt) auf Verträglichkeit mit neuen empirischen Daten zu prüfen -> hypothesengeleitet, inferenzstatistische Schlussfolgerungen möglich Beachte: sagt nichts darüber aus, ob gefundene Faktorenstruktur auch die einzig gültige darstellt -> Interpretationsabhängigkeit !
Arten v. Faktormodellen (S. 42) a) Generalfaktormodell (unkorrelierte Faktoren) b) Modell gemeinsamer multipler Fakoren c) Gruppenfaktorenmodell (unkorrelierte Faktoren) d) Faktoren zweiter bzw. höherer Ordnung
Klassische Testtheorie 1) Klassische Testtheorie - seit 1920 für Konstruktion psychologischer Tests - (wie IRT) latente Eigenschaften oder psychologischer Konstrukte quantifizierbar machen (messbar) - Testkonstrukteur hat Prüfkriterien (Testgütekriterien): ermöglichen Qualitätsprüfung v. Tests - Problem: diese Prüfkiterien aus heutiger Sicht nich ausreichend: unbekannt welche Messinstrumente geeignet; sowie Schwierigkeitsgrade (Item) u. Fähigkeitsgrade (Person) - Fähigkeitstests oft dichotom
Was ist unbestritten ? Psychologische Konstrukte haben keine natürliche Metrik (keine Skale, keinen nat. Nullpunkt)
Problem v. Messung (Bsp.: latenter Eigenschaften?) Bevor eine Messung, erfolgen kann, muss eine Skala etabliert werden -> formalisierte mathematische Theorie (Sozialwissenschaften) notwendig - erst wenn dieses Messmodell nachweislich für empirische Daten gilt, kann auch v. Messung im eigentlichen Sinn gesprochen werden
Problem Klassischer Testtheorie - setzt ohne nähere Prüfung Messung einer latenten Dimension ganz einfach mit Auszählen korrekter Antworten in einem x-beliebigen Test gleich -> Glaube, dass z.B. durch Vorgabe verschied. schwieriger Rechenaufgaben eine Skala zur Messung der latenten Dimension "numerische Intelligenz" begründet ist, nachweislich nicht haltbar
Item Response Theorie (probabilistische Testtheorie) kann mathematisch begründete Antworten auf die provokanten Fragen geben, welche die darin enthaltenen Probleme lösen -> Messmodelle, deren empirische Gültigkeit geprüft werden kann -> erst wenn Modellprüfung abgeschlossen und nachweislich für Population gilt, ist Skala etabliert = faire Messung z.B. von Personenfähigkeiten
Welche Forderungen sind an "objektives Messen" in Sozwiss. zu stellen? KLÄRUNG - Testunabhängige Fähigkeitsmaße (Personenparamter): Messwerte (Fähigkeitsgrade) sollten nicht von den im test (zufällig) verwendeten Items abhängen; denn eine Aussage über den Vergleich zweier Personen sollte unabhängig davon sein, welche u. wie viele Items dafür verwendet wurden, und zudem unabhängig davon, welche Personen sonst noch getestet wurden - Stichprobenunabhängige Itemschwierigkeitesmaße (Itemparamter): Schwierigkeit v. Testaufgaben sollte unabhängig v. konkreten Stichproben quantifiziert werden können -> Aussage über den Vergleich zweier Items sollte unabhängig davon sein, welche und wie viele Personen dafür verwendet wurden, und welche Items sonst noch vorgelegt wurden
Wem entsprechen die beiden genannten Punkte zur Forderung an "objektives Messen" Forderung v. G. Rasch nach spezifischer Objektivität v. Vergleichen (gibt noch andere Mögl. Objektivität v. Vergleichen zu definieren) -> beinhaltet das Prinzip d. Stichprobenunabhängigkeit
Was empfiehlt sich für die Konstruktion v. Fähigkeitstests im Rahmen der IRT in besonderer Weise ? Und was ermöglicht es ? Das "dichotome logistische Modell" v. Rasch - kurz: Rasch Modell o. RM -> besitzt außergewöhnliche Modelleigenschaften u. bei empirischer Gültigkeit weitreichende, hervorragende Konsequenzen für die Testpraxis ermöglicht
Das Rasch-Modell als Skalenkonstruktionsmethode - Grundannahmen 1) 1) geht nicht vom Rohwert (Testwert) aus, sondern setzt beim EINZELNEN ITEM an -> Prüfung, ob alle Items dieselbe latente Dimension messen, erst möglich -> jede beobachtete Antwort einer Vpn ist von drei Komponenten abhängig: a) Eigenschaft d. Person (zB Fähigkeit) b) Eigenschaft d. Items (zB Schwierigkeit) c) Zufall: alle unkontrollierbaren Einflüsse, die beim Messen in Sozwiss. immer zu erwarten sind 3) Der Zusammenhang zw. manifester Variable u. latenter Dimension ist systematisch, er wird für jedes einzelne Item i durch die Itemcharakteristik (Funktion) hergestellt: siehe S. 45
Grundannahme 2) 2) manifeste Variablen sind Indikatoren (Messinstrumente) EINER postulierten latenten Dimension; mit Hilfe der manifesten Variablen wird auf die latente Dimension rückgeschlossen !
Grundannahme 3) 3) Der Zusammenhang zw. manifester Variable u. latenter Dimension ist systematisch, er wird für jedes einzelne Item i durch die Itemcharakteristik (Funktion) hergestellt: siehe S. 45 -> jedes Item ist mit latenter Dimension durch eine eindeutige Funktion verknüpft; in Abhängigkeit von ξ v (Fähigkeit einer Person v) hat jede Person eine bestimmte Wahrscheinlichkeit ein Item zu lösen -> die Itemlösewahrscheinlichkeit soll nie 0 oder 1 erreichen, weil der schwächste einmal Glück haben kann bzw. dem Besten ein Fehler unterlaufen kann -> Zusammenhänge zwischen den manifesten Variablen sind nicht Ausdruck direkter Abhängigkeiten zw. den einzelnen Verhaltensweisen, sondern Ausdruck ihrer Abhängigkeit von einer, allen manifesten Variablen gemeinsam zugrunde liegenden latenten Dimension
Was bedeutet es, wenn diese Betrachtung richtig ist ? EINE latente Dimension existiert: -> latente Dimension (statistisch) konstant halten es folgt: nach Konstanthaltung müssten die Zusammenhänge zwischen den manifesten Variablen verschwinden (Formel siehe S. 45)
Was heißt das im übertragenen Sinne ? Die Wahrscheinlichkeit, dass eine Vp mit Fähigkeit ξ beide Items (i und j) löst ist gleich dem Produkt der Wahrscheinlichkeit der Einzelreaktionen (W i zu lösen u. W j zu lösen)
Was wird zusätzlich angenommen ? Antworten verschiedener Personen voneinander stochastisch unabhängig (Schummeln verboten)
Wie ist eine Person v im RM charakterisiert ? Durch ihre Position ξ v auf der latenten Dimension ξ v = Personen(fähigkeits)paramter - muss erst geschätzt werden analog für Itemparamter: durch Position σi auf latenter Dimension charakterisiert: "Item(schwierigkeits)parame, muss erst geschätzt werden
Was bedeutet das Messen einer psychischen Eigenschaft ? = schätzen unbekannter Parameter aufgrund v. Beobachtungen (manifeste Variablen -> 0/1 - Antworten "gelöst"/"nicht gelöst"
Worin besteht die Festlegung der Struktur eines probabilistischen Testmodells? In der Spezifikation der Funktion fi (ξ), also der Form der Itemcharakteristik-Kurven; sind die Funktionen bekannt können die Parameter geschätzt werden
Welche mathematische Funktion entspricht den genannten Forderungen u. Grundannahmen ? sog. logistische Funktion (S. 46) -> Lösungswahrscheinlichkeit als logistische Funktion der Differenz d von Personenfähigkeit und Itemschwierigkeit (ξv - σi) beschrieben (siehe S. 47)
Anmerkungen 1) RM benötigt dichotome Testaufgaben 2) p(+) hängt nicht davon ab, wie groß ξv und σi, sondern lediglich v. Differenz ξv - σi 3) p(+)=0.5 wenn ξv=σi; inhaltlich sinnvoll, weil Person v dann gleich fähig ist wie das Item schwierig ist
Ergänzende Bemerkungen - RM einzig prob. Testmodell, dass spezif. objektive Vergleiche ermöglicht und dadurch "Stichprobenunabhängigkeit" der Messung realisiert - Eindimensionalität der Testaufgaben: Lösungswahrsch. v. Item hängt von Parameter ξv ab v. jeweiliger Testperson: alle latenten Personenmerkmale, die neben den Itemeigenschaften die Reaktionen bestimmten, vollständig in diesem Parameter zusammengefasst (Verletzung Eindimensionalität: gewisse Personenmerkmale ei verschied. Aufg. unterschiedliche Gewichtung bei Reaktion) 3) Erschöpfende Statistik: Anzahl gelöster Aufgaben (rv=Personenrandsumme o. Rohwert) = erschöpfende Statistik für ihren unbekannten Personenparameter -> für Schätzung des Personenparamters sämtliche relevante Infos in rv enthalten: nur von Bedeutung WIE VIELE gelöst und NICHT WELCHE 4) ZS zwischen rangskalierten Rohwerten u. intervallskalierten Fähigkeitsparameter empirisch begründet: "echte Messung" v. latenten Eigenschaften
Wenn man sich Test wünscht, bei dem Testrohwert (rv) interpretiert werden kann...? .. so muss für diesen Test das RM empirisch gelten !
Herkömmliche Fähigkeitstest mittels KTT entwickelt Interpretieren Testrohwert, jedoch ohne zu überprüfen, ob das korrekt ist
Was kann mittels Modellgeltungskontrollen im RM geprüft werden? Ob die im Modell enthaltenen Annahmen für einen empirisch gegebenen Datensatz gelten oder nicht
Wenn das Modell gilt, dann darf gefolgert werden: - misst für alle Testpersonen dieselbe latente Fähigkeitsdimension: Testaufgaben eindimensional & messen fair - Personenparameter kennzeichnen die Fähigkeitsgrade: liegen auf einer Intervallskale und unabhängig avon, welche u wie viele Items vorgegeben - Itemparameter liegen auf derselben Intervallskala wie Personenparameter: unabhängig davon, welche Personen getestet - Bestimmung v. Personenfähigkeiten: wie viele Items wurden gelöst? (nicht nötig welche) - Reihenfolge nicht wichtig - Fähigkeitsangepasstes Testen möglich, wenn genügend großer Aufgabenpool vorhanden - Veränderungen können gemessen werden (höherer o. geringerer Leistungszuwachs auf Fähigkeitsdimension; Veränderungsmessungen in KTT zum Scheitern verurteilt)
Aufwand für Testkonstruktion Großer Aufwand bei RM
Anwendungsbeispiele für RM Bsp. 1 - Item-Bias Leistungstest als Zulassungskriterium problematisch: Verteilung der Traitvariable stimmt in den verglichenen Teilpopulationen nicht überein Neure Psychometrie: Es ist zu unterschieden, ob der Test Gruppe spezifisch benachteiligt oder ob lediglich ein Unterschied in der Traitvariablen-Verteilung besteht, ohne dass der Test als Messinstrument am Leistungsunterschied Schuld hat
Definition Item-Bias KLÄRUNG Item als verzerrt o. unfair anzusehen, wenn eine IC-Kurve in zwei unabhängig von diesem Item definierten Gruppen verschieden ist; ein Test wird fair sein, wenn zumindest ein Item "biased" ist (Def. v. Item-Homogenität oder Item-Bias erfolgt stets im Rahmen eines bestimmten Modells) DIF-Items müssen vorab ausgeschieden werden
Bsp. 2: Transkulturelles Testen Culture fair: nonverbal-bildhaft dargebotene Testaufgaben - reicht jedoch nicht aus -> sorgfältige Übersetzung -> Nachweis d. Gültigkeit v. RM in "Ausgangskultur" Will man über beide Kulturen hinweg eindimensional messen, dann sind Modelltests in den aus beiden Kulturen zusammengesetzte Daten durchzuführen
Bsp. 3: Computerisiertes Adaptives Testen (CAT) - RM basierend - individuell unterschiedlich schwierige Aufgaben, die dem Fähigkeitsniveau d. Person entsprechen (Itempool) -> Poolaufgaben müssen gemeinsam Rasch-homogen sein, sodass es mögl. ist die Vpn auf gemeinsamer Skala zu verrechnen, obwohl sie verschiedene Aufgaben bearbeiten - Durchführung nur mittels Computer: mittelschwierige Start-Aufgabe, je nachdem ob gelöst, folgt zweites Item schwieriger/leichter -> nach jeder Itembeantwortung Schätzung der aktuellen Fähigkeitsparameter u. danach bestpassende Item -> Testabbruchkriterium (zB ξv ausreichend genau geschätzt Positive Konsequenzen: - wenig "unnütze" Items - höhere Messgenauigkeit - in Extrembereichen präzisere Messung möglich - Testabbruch kann auf diagnostische Anforderungen eingestellt werden - Testsicherheit u Testfairness erhöht ("Testknackermethoden") - Abschauen unterbunden - Bekanntgabe des Itemtyps möglich Nachteile: - nur für Testkonstrukteur, der durch die Entwicklung eines rasch-homogenen Itempools einen massiv erhöhten Testkonstruktionsaufwand hat
Bsp. 4 - Psychometrische Qualitätskontrolle v. Tests Messen Raumvorstellungstests 3DW u Matrizentest WMT dasselbe latente Konstrukt? 1) KTT: r zwischen .40 und .50: keine eindeutige Antwort möglich 2) IRT: 3DW und WMT gemeinsam rasch-homogen? Nein (Gittler) WMT und 3DW messen jeweils Spezifisches: separierte Fähigkeitsdimensionen -> Ableitung v. positiven Aussgaen zum Nutzen und zur Konstruktvalidität der Tests
Bsp. 5 - Veränderungsmessung Personenfähigkeitsparameter auf Intervallsakla: - Veränderungen können durch Parameterdifferenzen quantifiziert werden - bei Rasch kalibrierten Itempool können unterschiedliche Items je Messung aus Itempool heragezogen werden -> darüber hinaus: Entwicklung v. neuen Methoden zur "fairen" Quantifizierung v. Veränderungen (klassische Probleme d. Veränderungsmessungen sollen überwunden werden)
Intelligenz Kompetenz-Performanz-Problem (Fähigkeit vs. Leistung) - Fähigkeiten sind Persönlichkeitseigenschaften, die Leistungen ermöglichen - Leistungen sind Ergebnisse von Handlungen, die bewertbar sind - erzielte Leistung in einer bestimmten Aufgabe hängt von Fähigkeit UND Anstrengung (Leistungsmotivation) ab
Fähigkeitsunterschiede = Leistungsunterschiede - gilt nur wann? Wenn Vpn im Test sich gleich anstrengen -> Kompetenz-Performanz-Problem
Kompetenz-Performanz-Problem Definition Die realisierte Leistung (Performanz) in einer Aufgabe ist nur bei gleicher Motivationsstärke ein geeignetes Maß für Kompetenz (Fähigkeit)
Versuche, das Problem in den Griff zu bekommen 1) Maximale Anstrengung der Vpn soll durch entsprechende Gestaltung der Testsituation erreicht werden -> indem, Unter- bzw. Überforderung vermieden (0,5 lösbar = schwierig) -> Belohnung für gute Leistung geboten -> entsprechende Instruktionen gegeben 2) Mehrere Testwdh. -> intraindividuelle Leistungsschwankungen werden auf Anstrengungsunterschiede zurückgeführt, Maximalleistung bestmögliche Schätzung der Fähigkeit
Aggregationsprinzip (Eigenschafts-)Messungen werden reliabler aufgrund von Mittelungen über mehrere Messungen, weil sich die je Einzelmessung unterschiedlichen Messfehler teilweise kompensieren: gemittelte Messung mit kleinerem Messfehler behaftet -> empirische Erfassung: Messungen ausreichend aggregiert (mehrere Fragen zu einem Sachverhalt)
Abgrenzung zu verwandten Begriffen -"inter legere"=auswählen durch kritische Beachtung der relevanten Merkmale -in klassischer Logik: genus proximum (Oberbegriff) und differentia specifica (relevantes Unterscheidungsmerkmal)
"Intelligenz" im Alltagsgebrauch - Begabung als frühkindlich vorhandene Voraussetzung für späteren Erwerb v. Fähigkeiten (jedoch zu stark mit Vorannahmen über Entwicklungsursachen belastet) - Klugheit: reflexive Umsicht, Menschenkenntnis, Lebenserfahrung - Weisheit: Expertenwissen in grundlegenden Lebensfragen
Intelligenz im Alltagsgebrauch zusammengefasst "großflächige wechselseitige Überlappungen" der Definition "zu registrieren sind, die Eindrucksmäßig gegenüber den Verschiedenheiten überwiegen
Implizite Intelligenzdefinitionen (aus der Sicht von Laien) Betrachten folgende Verhaltensweisen als "idealtypisch" für intelligente Personen (3-faktorielles System v. Sternberg): F1: Praktische Problem-Löse-Fähigkeit F2: Verbale Fähigkeit F3: Soziale Kompetenz (S. 54)
Analytische Intelligenzdefinitionen - Problematik Intelligenz relativ einheitl. Fähigkeit, jeodch schwer zu beschreiben, was intellektuelle Leistungen sind -> Unsicherheit führt in Verbindung mit der hohen soz. Erwünschtheit in westl. Kulturen zu einer kritischen Haltung gegenüber psychologischen Intelligenzkonzepten
Analytische Intelligenzdef. (aus Sicht v. Psychologen) -> nicht alle auswendig können Boring: "Intelligenz ist das, was Intelligenztests messen" (ironisch) -> unzweideutige Kommunikationsbasis Anastasi: "unsere Intelligenzstests nur die Fähigkeit messen, in unserer speziellen Kultur erfolgreich zu sein" (stimmt nicht ganz) Wechsler: "Intelligenz ist die Fähigkeit, zweckvoll zu handeln, vernünftig zu denken und sich mit seiner Umgebung wirkungsvoll auseinanderzusetzen"
Was bleibt unausgesprochen bei den Intelligenzdefinitionen ? WAS zur Lösung neuer Probleme bzw. zur geistigen Anpassung an neue Aufgaben erforderlich ist Hofstätter: benötigen "eine Aussage über die Welt, der gegenüber Intelligenz gegenüber überhaupt nicht möglich ist"
Evolutionistische Formulierung des Neurologen Sherrington "intelligence amid chaos would have no survival value"
Hofstätter - Intellifenzbeschreibung Auffindung von Ordnung (Redundanz) in der Welt: in einer völlig chaotischen Welt gäbe es keine Orientierungshilfen, kluges Verhalten lässt sich nicht vom törichten unterscheiden (keine höheren Wahrscheinlichkeiten)
Hofstätter - Dummheit erster und zweiter Art Dummheit erster Art: richtige H0 wird abgelehnt -> Menschen m. überdurchschnittl. IQ, die Vorurteile haben und/oder gläubisch sind Dummheit zweiter Art: falsche H0 wird irrtümlich akzeptiert (Zahlenreihe) = Gegenstand der meisten Intelligenztests
Auffinden von Ordnung in der Wirklichkeit (Hofstätter) Analysatoren, denen auf Seiten des Individuums besondere Faktoren der Intelligenz entsprechen (S. 56) -> Auffinden v. Ordung in persönlicher Innenwelt erfordert Intelligenz; rationale Entscheidungen erst dann möglich, wenn über verschiedene Bereiche unseres Wesens einigermaßen gültige Aussagen gemacht werden können -> auch Persönlichkeit (Emotionen) beeinflusst intelligentes Verhalten
Zusammenfassung 1) Sinnesprüfungen v. Galton führten in Sackgasse (geringe Korrelationen) 2) Überwindung der Sackgasse durch Binet, der Intelligenz auf höherem Komplexitätsniveau: unterschiedl. intelektuelle Fähigkeiten erfolgreich in "Sonderbeschulung" -> unbewusst nutze er Aggregationsprinzip 3) Entwicklung es IQ (Stern, Wechsler): Kaum Änderung seit Wechslers Abweichungs-IQ
Intelligenzmessung in jüngster Zeit Intelligente Leistung wird wahrscheinlich am besten durch eine hierarchische Struktur abgebildet
Intelligenzmodelle - und theorien Intelligenztests i.d.R positiv miteinander korreliert (hohe Rechenfähigkeit meist auch hohe Raumvorstellung) -> Gemeinsamkeit, die in nahezu allen Intelligenzleistungen zum Ausdruck kommt = Ansatz Spearman
Charles E. Spearman - Ingenieur brit. Armee - Psychologieausbildung bei W. Wundt - Begegnung u. Freundschaft Karl Bühler - lehrte an Uni London und USA -> "Probleme Wahrnehmung, Geschichte der Psychologie und Denkpsychologie -> Zielsetzung: mittels Korrelationspsychologie das gemeinsame Element aller "mental tests" auszufinden
Charles Spearman - Experiment/Studie - testete die 24 ältesten Kinder einer Landschule - 2 Variablengruppen: Sensorische Diskrimination (Tonhöhenunterschiede) und Intelligenz (Schulleistung: Lehrerurteil) -> empirische Korrelationen gering, vermutete Messungenauigkeiten -> "wahrer" Zusammenhang nur wenn Wiederholungsreliabilität der beiden Maße "minderungskorrigiert" wird: Verdünnungsformel (S.58)
Spearman - Verdünnungsformel rxy*.. korrigiertes r rxy .. beobachtetes r rxx', ryy'.. Wiederholungsreliabilität -> v. Spearman korrekt entwickelt aber flasch eingesetzt -> heute Basiswissen innerhalb KTT
Anwendungsfehler - Spearman - statt (der höheren) Reliabilitäten wurden (niedrigere) mittlere Interkorrelationen in die Formel eingesetzt =1.01 Fehlschluss: Sensorische Diskrimination und Intelligenz sind Ausdruck einer grundlegenden Fähigkeit -> g-Faktor (noch heute Gegenstand)
Welche Beobachtung machte Spearman zusätzlich? In vielen Korrelationsmatrizen gilt die TETRADENBEDINGUNG -> Tetradendifferenzen = zweizeilige "Determinanten" verschwinden bzw. nahe Null Erklärung durch Generalfaktormodell: - jedes Intelligenzmaß beruht auf zwei Faktoren "general intelligence" (g) & für jeden einzelnen Test spezifischen (s) -> Gesamtsystem wird durch einen Faktor erklärt (S. 59)
Wann gilt das g-Faktor Modell? Wenn die Tetradenbedingung erfüllt ist (Zusammenfassung v. Erkenntnissen in einer umfangreichen Theorie d. Intelligenz)
Was erkannte Spearman später bei Einbezug kognitiver Tests ? g-Faktor reicht alleine nicht mehr zur Erklärung der Varianzen aus
Was entwickelte er daher im Zuge? breiter angelegtes mehrfaktorielles Konzept: Die Restkorrelationen nach Extraktion von g wurden als spezielle Generalfaktoren ausgewiesen (verbal ability) -> Burt: selber Sachverhalt -> Gruppenfaktoren, welche nur durch eine Untergruppe von Tests geladen werden
Was wurde spätestens nach 1930 klar? g-Faktor-Theorie unrealistisch und unhaltbar -> wegen Plausibilität und Einfachheit am weitesten bekannt u. zeigt bis heute noch praktische Anwendung: Punktwerte für Einzeltests und IQ als Gesamttestscore -> n-dimensionales Gebilde (Intelligenz) wird eindimensional betrachtet, was stark eingeschränkte Aussagekraft mit sich bringt - Weierentwicklung der g-Faktor-Theorie: 1) USA: Thurstone - sieben "primary mental abilities" 2) England: Hierarchische Modelle
Show full summary Hide full summary

Similar

GPSY PEPS
Simon Wirsching
GPSY PEPS
Bibo Meyer
GPSY PEPS (Antworten während der Bearbeitung)
Mischa Kräutli
GPSY PEPS
Gerrit Schulte
Persönlichkeitspsychologie
Miriam Brunner
GPSY PEPS
Carina Stocker
Kapitel 7 DIFF
Miriam Brunner
DIFF Kapitel 8
Miriam Brunner
6. Kapitel zur Differentiellen Psychologie
Miriam Brunner
GPSY PEPS
Saskia Wagner
GPSY PEPS
Katrin Thel