|
|
Created by Kathy H
over 9 years ago
|
|
|
|
Copied by Valen Tina
about 9 years ago
|
|
| Question | Answer |
| Regressionskoeffizienten b | =auch Regressionsgewichte genannt = wie groß ist der relative Einfluss eines Prädiktor bei der Vorhersage der abhängigen Variable (der Einfluss der anderen Prädiktoren wurde bereinigt) |
| Beta Gewicht β | standardisierter Regressionskoeffzient -->geben dann den Einfluss eines Prädikators auf Kriterium in Standardabweichungseinheiten |
| Aufklären von Variablen in der multiplen Regression | = Summe von Variablen wollen konkreten Wert (=Y) einer Person vorhersagen -X = genaue Ausprägung der Variablen -a=Regresionskonstante (für alle Personen gleich) |
| multiple Regression | = schätzt den Wert einer Person mithilfe der Ausprägungen mehrerer Prädiktorvariablen auf einer Kriteriumsvariable |
| Güte der Vorhersage bei multipler Regression | = wie gut ist das gesamte Modell (=Auflistung mehrerer Prädikatoren in d. Reggression) für die Vorhersage des Kriteriums geeignet -Zwei verschiedene Möglichkeiten um es heraus zu finden, durch...: - Standardschätzfehler - multiplen Determinationskoeffizient R² =beide geben das Ausmaß der Varianzaufklärung an |
| multiplen Determinationskoeffizient R² | -gibt den Anteil der Varianz des Kriteriums an, der durch alle Prädiktoren gemeinsam erklärt wird -max. Wert = 1 -->entspricht Varianzaufklärung von 100% |
| Standardschätzfehler bei der multiplen Regression | wie stark weichen im Durchschnitt die vorhergesagten Werte vom tatsächlichen Wert des Kriteriums ab -->kann direkt aus R² bestimmt werden, da R² in direkter Beziehung zu Se steht |
| Prüfung des einzelnen Regressionsgewicht auf Signifikanz | -Berechnung d. t-Wertes aus ß -t-Wert mit n -2 Freiheitsgraden auf Signifikanz prüfen -für jedes einzelnes Regressionsgewicht ß kann eigener Standardfehler Se, Konfidenzintervall & Signifikanztest berechnet werden |
| Signifikanztests bei multipler Regression | wird meist drauf verzichtet, da R² gute Info darstellt Signifikanztest für das komplette Modell: F-Test |
| t-Test | = prüft, ob sich Mittelwerte signifikant unterscheiden (Mittelwerte aus un- & abhänigigen Stichproben o. Mittelwert, der gegen einen theoretisch zu erwartetenden Mittelwert getestet wird) -umfasst eine Gruppe von Tests - Prinzip aller Signifikanztests: systematische Varianz (Mittelwertsunterschied) geteilt durch Fehlervarianz (SD) |
| t-Test bei zwei unabhängigen Stichproben | = prüft die Signifikanz eines Unterschiedes - Mittelwertsunterschied der Stichprobe wird verglichen mit Mittelwertsunterschied von H0 |
| kritischer t-Wert bei unabhängigen Stichproben | -ergibt sich aus der t-Verteilung eines bestimmten Signifikanzniveau (5 oder 1 Prozent) - wird mit empirischen t-Wert verglichen (empirischer Wert muss extremer/absolut größer sein, um signifikant zu sein, da in d. tabelle nur positive Werte abgetragen werden)--> Effekt kann verallgemeinert werden) |
| Freiheitsgrade bei unabhängigen Stichproben bei dem t-Test | |
| Berechnung des t-Werts bei abhängigen Messungen | •Um den t-Wert berechnen zu können, muss zunächst der Standardfehler des Mittelwertunterschiedes berechnet werden: ÔX diff= Ôdiff/ √n |
| t-Test bei einer Stichprobe / Einstichprobenfall | = Mittelwert einer Gruppe wird gegen zweite theoretische(bereits bekannte Mittelwerte,z.B. IQ) Gruppe verglichen -Vorher Berechnung Standardfehler d. Mittelwertes: Ô⨱= Ô_ √n |
| Effektgrößen bei unabhängigen Stichproben | Bestimmung von Effektgrößen bei Mittwelwertsunterschieden durch Becrechnung Abstandsmaße aus Rohdaten o. aus Signifinkanztests: - Abstandsmaß d - Abstandsmaß g - Korrelation r - Korrelationskoeffizienten |
| Abstandsmaße beim t-Test (unabhängige Stichprobe) | |
| Korrelation bei t-Tests (unabhängige Stichprobe) | ist identisch mit Korrelationskoeffizienten |
| Effektgrößen bei abhängigen Stichproben | - Abstandsmaße d und g identisch bei Einstichprobenfall |
| Voraussetzungen beim t-Test | - AV ist intervallskaliert - Normalverteilung - ca. gleich große Varianzen - bei unabhängigen Stichproben: Personen beeinflussen sich nicht systematisch gegenseitig |
| Varianzanalyse (ANOVA) | = Verfahren zum Vergleich von Varianzen = Sonderform der multiplen Regression = Vergleich mehrer Mittelwerte möglich - UV darf nominalskaliert sein -t-Test ist eine Sonderform von ANOVA -Verhältnis zwischen erklärter & nicht erklärter Varianz wird untersucht -Varianz in diesem Verhältnis groß genug -->signifikantes Ergebnis |
| einfaktorielle ANOVA | = nur eine unabhängige Variable (Faktor) wird untersucht = einfachster Fall -z.B. Stress bei d. Nutzung verschiedener Verkehrsmittel |
| relevante Varianzen bei der einfaktoriellen ANOVA | - Gesamtvarianz - erklärte Varianz - nicht erklärte Varianz |
| Gesamtvarianz bei einfaktorieller ANOVA | = Varianz der AV = Summe aus erklärte + nicht erklärte Varianz |
| erklärte Varianz | = Varianz zwischen den Gruppen =Between Varianz =systematische Varianz - mehrere Mittelwertsdifferenzen (Varianz der Mittelwerte), da zwischen jeder Gruppe die Differenz berechnet wird |
| unerklärte Varianz | = unsystematische Varianz =Varianz innerhalb der Gruppe =Within-Varianz =Fehlervarianz - Menschen unterscheiden sich und liefern entsprechend unterschiedliche Werte - stellt Fehler dar, der die Aussagekraft unserer Mittelwerte einschränkt |
| Maß der Streuung bei der Varianzanalyse | = Quadratsummen (QS) - sind noch nicht an der Stichprobengröße relativiert |
| Berechnung der Gesamtvarianz bei einfaktorieller ANOVA | =X mit 2 Querstrichen ist der gemeinsame Mittelwert aller Daten -Differenz einzelner Messwerte X zum gemeinsamen Mittelwert gebildet, quadriert & aufsummiert |
| Berechnung der systematischen Varianz (einfaktorielle ANOVA) | = Streuung der Stichprobe - Streuung sollte möglichst groß sein, da wir ja wollen, dass sich unsere Mittelwerte unterscheiden -Gesamtmittelwert X Strich 2 von jedem Gruppenmittelwert _Xi abziehen,Quadrate mit jeweiligen Grußße ni multiplizieren |
| Fehlervarianz bei einfaktoriellen ANOVA | -Mittelwert der jeweiligen Gruppe wird verwendet, da wir wissen wollen wie stark die Werte innerhalb der Gruppe variieren -Mittelwert d. jeweiligen Gruppe wird von jedem Mittwelwert abgezogen |
| Freiheitsgrade bei einfaktorieller ANOVA | k = Anzahl von Gruppen N = Gesamtstichprobe |
| F-Test und t-Test | bei zwei Gruppen kommen sie zum gleichen Ergebnis (F = t²) o. (t=√F) - F kann nicht negativ sein --> kann Richtung des Unterschieds nicht definieren, testet immer einseitig -F-Werte & t-Werte sind ineinander überführbaar - bei mehr als 2 Gruppen kann nicht mehrmals ein t-Test durchgeführt werden, denn dadurch verdoppelt sich die Wahrscheinlichkeit des Alpha-Fehlers |
| Einzelvergleiche (Post-hoc-Tests) - Zusatz bei Berechnung der ANOVA | = Prüfen der einzelnen Mittelwerts-unterschiede auf Signifikanz im Nachhinein - funktionieren wie t-Tests, allerdings wird Kumulation der Alpha-Fehler berücksichtigt (Alpha-Korrektur) - so viele Einzelvergleiche wie mögliche Vergleiche (Ergebnis p-Wert für jeden Mittelwertsunterschied) -keine Anzeige d. Richtung d. Mittelwertsunterschiedes -->daher Betrachtung d. Diagramms o. Boxplots |
| Ablauf der mehrfaktoriellen Varianzanalyse | F-Wert berechnen für jede UV ( dabei wird die jeweilige andere UV außer Acht gelassen) |
| Haupteffekt | -bei mehrfaktoriellen Varianzanalyse = Effekt der UV = Prüfung: haben die einzelnen UV einen signifikanten Effekt auf die AV ? - pro UV gibt es einen Haupteffekt |
| Interaktion | = prüfen, ob eine gegenseitige Beeinflussung der beiden UV's vorliegt = bedingter Mittelwertsunterschied (Wenn-dann-Bedingung), z.B. Stressniveau bei Benutzung verschiedener Verkehrsmittel zwischen Männern & Frauen - nicht durch die Wirkung einzelner Haupteffekte erklärbar, sondern durch deren Kombination Wirkung auf AV - nicht parallele Linien im Diagramm weisen auf Interaktion hin |
| Berechnung der Interaktion | -Varianz AxB = Gesamtvarianz minus alle bekannten Varianzen -Varianz durch Fehlervarianz |
| Varianzanalyse mit Messwiederholungen | = Abhängige Messungen =systematische Varianz durch Fehlervarianz teilen |
| Freiheitsgrade bei abhängigen Messungen (F-Verteilung) | -k=Anzahl der Messwiederholungen -n=Anzahl der Personen |
| Mixed Models/ gemischte Designs | = mehrfaktorielle Varianzanalysen, bei denen abhängige und unabhängige Messungen gemischt sind -z.B. für Messwiederholungen zusätzlich untersuchen,ob die Effekte bei Männern & Frauen unterscheiden --> abhängige Messung (Verkehrsmittel) mit unabhängigen Messung (Geschlecht() vermischt |
| Effektgrößen bei der Varianzanalyse | = Eta-Quadrat = wie groß ist der Anteil der UV-aufgeklärten Varianz an der Gesamtvarianz |
| Eta-Quadrat bei einfaktorieller ANOVA | Wie viel Prozent an Gesamtvarianz kann die UV aufklären |
| Eta-Quadrat für alle Arten von Effekte | - für Feffekt belieibiger F-Wert mit dazugehörigen Freiheitsgraden angegeben werden -für F-Werte von Haupteffekte, Interaktionen oder Messwiederholungen (dfFehler anstatt dfinn einsetzen) |
| partielles Eta-Quadrat ῃ² | = bezieht sich nur auf einen Part bei der mehrfaktoriellen Varianzanalyse |
| Interpretation von Eta-Quadrat ῃ² | |
| Voraussetzung für Varianzanalyse | - AV muss intervallskaliert sein -Messwerte Normalverteilung folgen (Werte in der Population sollen normalverteilt sein) - Varianz aller Messwerte in allen Gruppen gleich groß |
| F-Test als Signifikanztest bei Regressionsrechnung | = kann das Ergebnis der Regressions-rechnung auf Population übertragen werden (Güte der Vorhersage) -durch Prädikator aufgeklärte Varianz durch Fehlervarianz teilen - signifikantes Ergebnis = >0 |
| erklärte Varianz zur Berechnung des F-Wertes bei der Regressionsrechnung | -erklärte Varianz ergibt sich aus Vorhersage d. y-Werte & Vorhersage schätzt y-Werte (Yi), die entsprechend d. jeweiligen Ausprägung von x vom Mittelwert laler Daten (_Y) verschieden sind |
| Fehlervarianz zur Berechnung des F-Wertes bei der Regressionsrechnung | -Fehlervarianz=mitteleren Residuen, d.h. nicht erklärtem Varianzanteil =Differenz von vorhergesagten (Dach yi) & tatsächlichen Werten (yi) |
| Alternative zur Berechnung des F-Wertes bei Regressionsrechnung | -k=Anzahl d. Prädikatoren -n=Anzahl d. untersuchten Personen |
| Kolmogorov-Smirnov-Test | = Signifikanztest zur Prüfung, ob eine Normalverteilung vorliegt - sollte nicht signifikantes Ergebnis liefern, da sich die Verteilung nicht signifikant von einer Normalverteilung unterscheidet -->keine Berehnung mithilf t-Tests o. Varianzanalyse möglich |
| Parametrische Testverfahren | = setzen bestimmte Verteilung (i.d.R. Normalverteilung) von Populationsparameter voraus - daraus resultieren Berechnungen zum Mittelwert, Mittelwertsunterschied, F-Wert, t-Wert... |
| Nonparametrische / verteilungsfreihe Verfahren | = machen keine Annahme über die Verteilung der Parameter - bei nominal- oder ordinalskalierten Daten & nicht normalverteilten Daten |
| Vor- und Nachteile von nonparametrische Verfahren | + Verteilungsfreiheit + Untersuchung sehr kleiner Stichproben + alle Fragestellungen können untersucht werden - Signifikanz ist schwerer festzustellen (in d. Population vorhandene Effekte können schwerer entdeckt werden-->geringe Teststärke) |
| Nonparametrische Testverfahren bei Ordinalskalen | - Durchführung für Zusammenhangs- und Unterschiedsfragestellungen (haben parametrische Entsprechung) - Messwerte werden als Ränge behandelt -umgeht Normalverteilungsanhnahme |
| Übersicht parametrische und nonparametrischer Verfahren bei Ordinalskalen | |
| Test für Unterschiede bei zwei unabhängigen Stichproben (nonparametrisches Verfahren) | - U-Test nach Mann und Whitney: Abstand zwischen den beiden mittleren Rängen (Daten d. Größe nach aufschreiben & Ränge zuordnen) -Maß = zentrale Tendenz = Median -Ziel: Vergleich der mittleren Ränge in einer Reihe von Rängen für beide Gruppen |
| U-Test nach Mann und Whitney (nonparametrisches Verfahren) | Erstellung einer gruppenunabhängigen Rangreihenfolge --> Erstellung der Rangsumme (T) je Gruppe --> Erstellung des durchschnittliches Ranges (T/n) (=deskriptives Ergebnis) U = Berechnung der Signifikanz des Unterschieds T1=Rangsumme Gruppe 1 |
| empirischer Wert des U-Tests (nonparametrisches Verfahren) | = kleinere Wert der beiden Gruppen --> muss gleich oder kleiner sein als der kritische Wert (aus Tabelle) um signifikant zu sein -Berechnung: U´=n1*n2-U, um weiteres U zu berechnen, indem man T2 abzieht |
| U-Test bei großen Stichproben (nonparametrisches Verfahren) -->Umrechnung U-Werte in z-Werte | |
| Tests für Unterschiede bei mehr als zwei unabhängigen Stichproben (nonparametrisches Verfahren) | Vorgehen identisch wie bei 2 Stichproben --> Test ist H-Test nach Kruskal und Wallis (Rangesumme d. Gruppen berechnet & Signifikanz geprüft) - bei großen Stichproben besteht eine Chi-Quadrat-Verteilung --> folgt bestimmter Verteilung |
| Tests für Unterschiede bei zwei abhängigen Stichproben (nonparametrisches Verfahren) | = Wilcoxon-Test / Vorzeichenrangtest (Differenzen von Messwerten innerhalb einer Person) - Differenz für jede Person zwischen Messung1 und Messung2 --> Rangreihenfolge nach steigender Differenz festlegen (Vorzeichenunabhängig, aber Kennzeichnung des Vorzeichen notwendig) --> Addition der jeweiligen Rangsummen zu T+ und T- |
| Interpretation des Wilcoxon-Tests | -T+ und T- stellen die Prüfgröße dar -wir verwenden den kleineren der beiden Werte für die Signifikanzprüfung --> kleiner/gleich als kritischer T-Wert laut Tabelle |
| Tests für Unterschiede bei mehr als zwei abhängigen Stichproben (nonparametrisches Verfahren) | = Friedman-Test bzw. Rangvarianzanalyse Ablauf: Messwertdifferenzen werden über die Messzeitpunkte hinweg nach Rang sortiert und Rangsummen d. positiven & negativen werden verglichen - Prüfgröße: Chi-Quadrat |
| Tests für Zusammenhänge (nonparametrisches Verfahren) | = Rangkorrelation --> korreliert die Ränge der jeweiligen Rohwerte Bedingung: monotone Variablen -->kein Richtungswechsel erlaubt wie auf dem Bild |
| Ablauf der Rangkorrelation (nonparametrisches Verfahren) | - Messwerte in Rangreihenfolge darstellen - Messwerte beider Variablen einzeln in Rangreihenfolge bringen! --> korreliert werden die Rangreihen beider Messgruppen |
| Möglichkeiten der Berechnung der Rangkorrelation (nonparametrisches Verfahren) | - Spearman's Rho (p) - Kendalls Tau (τ) |
| Anwendung von Spearman's Rho (p) | - intervallskalierten Daten, aber verletzte Voraussetzungen f. Person-Korrelation - Anwendung als wären Abstände zwischen Rängen gleich groß --> Voraussetzung: intervallskalierte Daten - Signifikanzprüfung mittels t-Test - Größenordnung wird nicht beachtet |
| Berechnung von Spearman's Rho (p) | d(i) = RZ(xi) - RZ (yi) (Differenz zwischen den Rangzahlen) RZ= Rangzahl n=Anzahl der Beobachtungswerte -lediglich Reihenolge d. Beobachtungswerte berücksichtigt, Größenordnung unberücksichtigt |
| Kendalls Tau (τ) | -setzt keine gleichen Rangintervalle voraus -Alternative zu Rho - Werte zwischen -1 und 1 - Signifikanzprüfung mittels z-Test |
| Effektgrößen bei Ordinaldaten | - sind nicht bestimmbar - Unterschiedsfragestellungen: auf Signifikanztest berufen - Zusammenhangsfragestellungen: Rangkorrelation, Interpretation wie Pearson-Korrelation - aber i.d.R. kleinere Werte |
| Anpassungstest (nominalskalierte Variable) | = Chi-Quadrat-Test (X²-Test) - prüft ob empirische Häufigkeitsverteilung mit theoretisch zu erwartenden Häufigkeitsverteilung übereinstimmt |
| Berechnung des Anpassungstests | f(b) = beobachteten Häufigkeiten, mit d. alle potenziellen Merkmalsausprägungen f(e) = erwarteten Häufigkeiten aus theoetischer Überlegung -wird für jede beobachtbare Häufigkeit berechnet und dann alle entsprechend addiert |
| Interpretation des Anpassungstests (nominalskalierte Variable) | -erwartete Häufigkeit = Nullhypothese -empirischer X²-Wert muss extremer als kritischer X²-Wert sein um signifikant zu sein -Berechnung Freiheitsgrade: df = k - 1 -k=Anzahl d. Merkmalsausprägungen |
| Goodness-of-fit-Test | -Anpassungstest zur Prüfung der Verteilung, vor allem bei komplexen Testverfahren - prüft, ob zwei Verteilungen deckungsgleich sind |
| Unabhängigkeitstest bei zwei nominalskalierten Variablen | = prüft, ob die Ausprägung einer Variable unabhängig von der Ausprägung einer anderen Variable ist -Form d. einen Häufigkeitsverteilung von d. Form d. anderen Häufigskeitsverteilung abhängt = X²-Test = k*l-X² |
| Kreuztabelle / Kontingenztabelle | -bilden verschiedene Kombinationsmöglichkeiten der Ausprägungen der nominalskalierten Variablen ab -k*l = Menge der Kombinationsmöglichkeiten (6*3=18 Kombinationen, da k=3 Spieler & l =6 Ausprägungen des Würfels) |
| Berechnung von X² Unabhängigkeitstest (nominalskalierte Variable) | -Formel für beide Variablen (deswegen zwei Summenzeichen) -1. Summenzeichen= Differenz von beobachteten & erwarteten Häufigtkeit für jede Auspräung d. ersten Variable -2. Summenzeichen=gleiche Prozedur für alle Ausprägungen d. zweiten Variable |
| Freiheitsgrade bei X² Unabhängigkeitstest (nominalskalierte Variable) | df = (k-1)(l-1) |
| Interpretation von X² Unabhängigkeitstest (nominalskalierte Variable) | Test ist signifikant, dann ist die Häufigkeitsverteilung der einen Variable nicht unabhängig von der Ausprägung der anderen Variable ist (genauen Unterschiede entnimmt man der Kreuztabelle) |
| Bestimmung der Häufigkeit, wenn keine Gleichverteilung vorliegt (X² Unabhängigkeitstest (nominalskalierte Variable) | Z = Zeilensumme in Kreuztabelle S = Spaltensummen in Kreuztabelle |
| Unabhängigkeitstests bei Messwiederholungen (=Mc-Nemar-X²-Test) | X² = (b-c)²) / (b+c) --> signifikantes Ergebnis = Verhältnis ist deutlich anders |
| Effektgröße bei Nominaldaten | = Omega (Effektgröße) für alle X²-Test -->wie Pearson- Korrelation interpretierbar -keine Mittelwerte & Abstandsmaße berechenbar |
| Teststärke (Power) | = Wahrscheinlichkeit, mit der ein vorhandener Effekt mithilfe eines Testverfahrens identifiziert werden kann = Fläche der Alternativhypothese abzüglich Beta-Fehler --> Power = 1 - β |
| Abhängigkeit der Teststärke | -->vom Beta-Fehler abhängig & dieser hängt von ab... - Alpha-Fehler - Stichprobengröße - Populationseffekt -Teststärke wird größer,wenn man größeren Alpha-Fehler & größere Stichprobe wählt & in d. Population ein größerer Effekt vorhanden ist |
| Festlegung der Teststärke vor der Studie | -zur Berechnung der erforderlichen Stichprobengröße in Abhängigkeit vom Populationseffekt und Alpha-Fehler (letzteren werden konstant gehalten & sind festgelegt, nur Stichprobengröße variiert) -angestrebte Teststärke >0,6 bzw. 60 % |
| Bestimmung der Teststärke nach einer Studie | , ist sinnvoll, um herauszufinden wie wahrscheinlich es war, überhaupt einen Effekt zu finden, der in der Population tatsächlich vorhanden ist (vor allemm wenn kein Effekt gefunden wurde) -Teststärke parametrischer Testverfahen ist stärker |
| Kontranstanalyse | = hypothetisches Muster der Mittelwertsunterschiede von Gruppen (z.B. linear, u-förmig...) wird vor der Untersuchung festgelegt & anschließend miz erhobenen Daten verglichen |
| Kontrastgewichte / Lambdagewichte λ | = genau Hypothese wird über das Muster von Mittelwerten durch Kontrastgewichte festgelegt - Muster wird vor der Untersuchung festgelegt - Prüfung nach der Erhebung, ob eine Übereinstimmung vorhanden ist bzw. wie groß die Abweichung ist |
| Vorgehen bei der Kontrastanalyse | -Hypothese definieren - Hypothese mit Kontrastgewichten ausdrücken, Relation (Größe der Gewichte) ist entscheidend--> Summe muss 0 sein -dabei wird für jede Gruppe eine Zahl vergeben, die d. relative Lage zu den anderen Grupen angibt - Datenerhebung - Zuweisung & Überprüfung der Kovaration von Lambdagewichten zum Mittelwert - Übereinstimmung von Mittelwerten & Lamdagewichten = signifikantes Ergebnis |
| Mögliche Darstellung von Kontrasten und Kontrastgewichte | |
| Kontrastanalyse bei unabhängigen Stichproben | - Varianz durch Kontrast ist max., wenn beide Muster (von Lamdagewichten & Gruppenmittelwerten) identisch sind |
| F-Wert und Freiheitsgrade bei Kontrastanalyse bei unabhängigen Stichproben | - F-Wert wird ebenso interpretiert wie herkömmlicher F-Wert - kann mittels der F-Tabelle auf Signifikanz geprüft werden - Freiheitsgrade = 1 (da nur ein Kontrast getestet wird) |
| Vorteile der Kontrastanalyse | - größere Teststärke (weil Muster von Mittelwertsunterschieden geprüft werden) - bei Zutreffen der Hypothese liefert Kontrastanalyse größeren F-Wert als Varianzanalyse --> Hypothesen müssen präzise formuliert werden -Lamdagewichte können präziser verhersagen, wie groß ein Mittelwert sein soll - sehr gut interpretierbare Effektgrößen |
| Effektgröße bei Kontrastanalyse für unabhängige Stichproben | = Korrelation r (effect size) - Interpretation wie Pearson-Korrelation - F (ANOVA) = normale F-Wert Berechnung |
| einfachere Rechnung von r (effect size) | - jeder Person das entsprechende Lambdagewicht zuordnen - Lambdagewicht mit Rohdaten korrelieren |
| Kontrastanalyse für abhängige Stichproben | - Muster für Varianz der Werte der einzelnen Personen über Messzeitpunkte - Vorgehen identisch mit unabhängige Prüfung, bis: Prüfen ob entsprechender Verlauf von Lambda bei jeder Person vorliegt --> liegt im Durchschnitt aller Personen der Trend vor |
| L-Wert | = sagt aus, ob das gemessene Muster mit dem unterstellten Muster (Kontrast) bei jeder Person übereinstimmt - L-Wert ist groß, wenn Übereinstimmung vorhanden--> wenn nicht, dann ist der L-Wert klein o. sogar negatv - wird für jede Person berechnet |
| L-Wert auf Signifikanz prüfen | - Unterscheidet sich der durchschnittliche L-Wert signifikant von 0 --> Prüfung durch t-Test -Mittelwert alller L-Werte L_ wird an d. Streuung d- L-Werte relativiert -T-Werte=signifikant: Effekt d. Messwiederholung steht mit fokusierter Hypothese im Einklang |
| Effektgröße bei der Kontrastanalyse für abhängige Stichproben | -Hedge berechnet, ob der Durchschnitt der L-Werte sich von 0 unterscheidet -g kann aus Ergebnis d. t-Tests berechnet werden |
| Berechnung bei der Metaanalyse (Unterschiedsfragestellung) | Unterschiedliche Werte der Studien auf eine gemeinsame Effektgröße bringen (Effekte versch. Studien vergleichbar machen) -für alle Effektgrößen (di) bestimmen & deren Mittelwert d- -n= Anzahl Studien |
| vertrauenserhöhende Dinge bei der Metaanalyse sind | - sehr viele Studien sind in die Analyse miteingeflossen - die einzelnen Studien hatten große Stichproben - Streuung der einzelnen Stichproben ist klein |
| Arten von multivariaten Verfahren | - Faktorenanalyse - Clusteranalyse - Multivariate Varianzanalyse - Multidimensionale Skalierung - Conjoint-Analyse - Strukturgleichungsmodelle |
| Faktorenanalysen | - reduzieren eine Vielzahl von Variablen aufgrund ihrer Korrelation zu wenigen Faktoren (o. Komponente - diese stehen stellvertretend für alle Variablen - es gibt keine UV , da lediglich Korrelaton zwischen Variablen mit gleichem Sachverhhalt gemessen werden - Ablauf: hohe Korrelation zwischen Variablen --> Variablen werden durch Faktor ersetzt (beschreibt alle eingeflossenen Variablen) |
| Clusteranalyse | = Reduktion von Fällen (Objekten, Personen) durch Zusammenfassung in Gruppen - Fälle sind innerhalb einer Gruppe möglichst ähnlich, zwischen den Gruppen möglichst unähnlich - keine UV -Anzahl von Clustern kann beliebig sein |
| Multivariate Varianzanalyse (MANOVA) | = prüft den Effekt einer oder mehrer UV auf mehr als eine AV - Ablauf: Overall-Analyse --> keine Signifikanz = keine weiteren Berechnungen --> Signifikanz = mehrere normale ANOVA für jede AV |
| Multidimensionale Skalierung (MDS) | = Ähnlichkeitsbeurteilung, von Personen für Objekte --> Ableitung: Anzahl und Art der Bewertungsdimensionen - Auffinden der relevanten AV Ablauf: Anzahl der Dimensionen festlegen (2-3) --> wo liegen Objekte in den Dimensionen --> Dimensionen interpretieren |
| Conjoint-Analyse / Verbundanalyse | = prüft den relativen Einfluss eines Merkmals / Merkmalsausprägung zur Bewertung von Objekten durch eine Person - meist durch Präferenzanalyse (z.B. Ratingskala zur Beurtelung von Produkten) |
| Strukturgleichungsmodelle | = Kombination aus Faktorenanalyse und Regressionsanalysen - bilden komplexe Zusammenhänge zwischen (meist latenten) Variablen - dienen der Überprüfung sozialwissenschaftlicher Modelle & Theorien |
| quantitative / konventionelle Methoden | -Phänomene des Erleben und Verhalten in Zahlen ausgedrückt -herkömmliche & am weitesten verbreitet |
| Positivismus | -Phänomene des Erlebens und Verhaltens, die wir beobachten und erforschen -Erleben von Emotion, das Entstehen vn Gedanken & das Steuern von andlungen sollen mithilfe materieller Prozess & Gesetzmäßigkeiten beschreibbar sein -Naturalismus: Mensch ist Teil d. biologischen & physikalischen Natur |
| Qualitative Methoden | Phänomene des Erleben und Verhalten qualitativ bewerten -->stellen subjektive Äußerungen von Menschen in d. Mittelpunkt der Betrachtung - Datengrundlage: Text, analysiert nach übergeordneten Bedeutungen und Sinnstrukturen - im Gegensatz zur quantitativen Methode: keine Zahlen, Skalen und Kennwerte |
| qualitative Forschungsprozess | - mit oder ohne gezielter Fragestellung ; bei gezielter Fragestellung: - Daten sammeln (meist Texte, Bilder) - nach jeweiligen qualitativen Methode auswerten - Daten verwenden oder ggf. erneute Datensammlung |
| explorativer Charakter eines Forschungsprozess | neues inhaltliches Gebiet wird erforscht |
| Besonderheit des qualitativen Forschungsprozess | - der Mensch übernimmt die Auswertung (der Foscher selbst wertet Analyse aus) --> aber: Subjektivität?! |
| Entkräftigung der Subjektivität bei qualitativer Forschung | - läuft nicht beliebig ab, sondern auch nach bestimmten Regeln und mit mehreren Personen (--> stärt Objektivität) -verschiedene Personen kommen bei d Auswertung zum gleichen/ ähnlichen Ergebnis -Unstimmigkeiten zwischen -Auswertungen-->offene Diskussion bis zur Lösung & Protokollierung auch quanti-tative Forschung ist nicht frei von Subjektivität |
| Anwendungsfelder der qualitativen Forschung | - immer abhängig von der Fragestellung - als Ergänzung / Bereichung der quantitativen Methoden bei bestimmten Fragestellungen |
| Methoden der qualitativen Forschung | - qualitative Inhaltsanalyse - Grounded Theory - Diskursanalyse |
| Qualitative Inhaltsanalyse | - folg am ehesten dem herkömmlichen Forschungsprozess; gut kombinierbar mit quantitativen Methoden - relativ konkrete Fragestellung - Datenmaterial: Alle Formen von Texten - Ziel: zusammenfassende Beschreibung des Textmaterials & Auffinden von Strukturen aus dem Text |
| Prozess der qualitativen Inhaltsanalyse | - Erstellen der Texte - Zusammenfassen in Kurztexte - Erstellen von Kategorien, die für die Fragestellung relevant sind (--> theoriegeleitete Inhaltsanalyse=Prüfung von Hypothesen/Theorien) |
| Anwendung von qualitativer Inhaltsanalyse | - bei subjektivem Erleben - Sinnzusammenhänge - Eindrücke - Meinungen welche nicht quantitativ erfasst werden können |
| Grounded Theory | - strukturierte & differenzierter qualitativer Ansatz - keine Fragestellung gegeben --> neue Theorien / Hypothesen finden - Datengrundlage: Alle Formen von Texten - alles wird immer protokolliert, um nachvollziehen zu können, warum der Forscher diese Schlüsse gezogen hat |
| Codieren bei der Grounded Theory | - zeilenweises Codieren (--> größtmögliche Objektivität) - fokussiertes Codieren (kleine Bedeutungseinheiten aus dem zeilenweisen Codieren werden zu Kategorien zusammengefasst) |
| theoretical sampling (Grounded Theory) = theoriegeleitetes Ziehen von weiteren Probanden oder Stichproben | - wenn nach allen analysierten Interviews noch Infos fehlen / Unklarheiten bestehen --> weitere Interviews werden geführt mit Personen bei denen man glaubt, dass diese die Antworten liefern könnten. - wird so lange gemacht, bis alle offenen Fragen beseitigt wurden |
| Anwendung der Grounded Theory | - Sachverhalte des subjektiven Erlebens, welche neu erforscht werden |
| Diskursanalyse | - Analyse des Konstruktivismus - Datenmaterial: alle Arten von aufgezeichneter Sprache - Ziel: Beantwortung bestimmter Fragestellungen (praktisches Problem oder theoretische Frage) |
| Prozess der Diskursanalyse | - Text lesen --> Codierung auf Relevanz für Ausgangsfrage --> Zentrale Aussagen suchen (auch zwischen den Zeilen lesen, z.B. Grammatik, Metapher...) Ziel: Auffinden übergeordneter Muster oder Vorstellungen, die in der Denkweise des Verfassers verankert sind |
| Vor- und Nachteile der qualitativen Methoden | + größere Flexibilität --> unvoreingenommen für Thema & keine Themen übersehen möchte + einbeziehen des Kontext & zusätzlicher Infos (nonverbale Gesten & sprachliche Äußerungen) - ungenau und objektiv nicht mehr nachvollziehbarer Umgang mit Daten, Einfluss der Subjektivität zu hoch |
| Schwierigkeiten der qualitativen Forschung | - kaum konkrete Handlungsanweisungen - sehr großer Aufwand für ein / mehrere Forscher --> Kombination aus qualitativer und quantitativer Forschung sinnvoll |
| Erläuterung Gesamtvarianz & Varianz der Mittelwerte | -Gesamtvarianz (Varianz d. AV)= Unterscheidung d. Messwerte aller Personen -1. Erklärung:Manipulation -->verschiedene Verkehrsmittel =UV -3 Differezen zwischen den Mittelwerten(Gruppe 1 & 2, 2 & 3, 1 &3), deshalb Varianz d. Mittelwerte genannte |
| Varianz zwischen den Gruppen oder Beetween-Varianz genannt, da | die Varianz durch die unterschiedliche Manipulation zwischen den Gruppen hervorgerunfen |
| Erläuterung Gesamtvarianz & Varianz innerhalb der Gruppe | -zweite Erklärung für Gesamtvarianz: Messwerte variiren nnerhalb einer jeden Gruppe-->Grund: Varianz innerhalb der Gruppen /Within- Varianz (repräsentiert Teil d. Varianz, auch systematische Varianz genannt) |
| Varianz innerhalb der Gruppen oder Within-Varianz genannt, da | - Menschen unterscheiden sich in d. Ausprägung von Merkmalen & nicht selben Messwert liefern -außerdem gibt es Messfehler bei Within-Varianz-->zufälliger Teil d. Varianz nicht erklärbar -dieser stellt fehler da & schärnkt Aussagekraft d. Mittelwerte ein -->Fehlervarianz /unsystematische Varianz genannt |
| Verhältnis der Prüfgröße F F= Ô²zw / Ô²inn -->Quadratsummen durch die entsprechenden Freiheitsgrade teilen | -Prüfgröße F =repräsentiert Vaarianz von Mittelwerten Je kleiner Fehlervarianz (inn=Varianz innerhalb d. Gruppe) bzw. je größer d. Varanz d. Mittelwerte (zw=Varianz zwischen d. Gruppen), desto größer wird . Wert F. |
| Effektgröße bei Kontrastanalyse für unabhängige Stichproben im Detail | -werden aus d. Ergebnis d. F-Tests bestimmt --> neben F Kontrast wird d. normale F-Wert benötigt (durch ANOVA bestimmt) -als Effektgröße= Korrelation r verwendet ->prüft, wie gut das Muster d. Lamdagewichte mit Muster emprisischer Mittelwerte übereinstimmt - bei d. Kontrastanalyse wird Korrelation als r effect size bezeichnet -->Interpretation erfolgt wie bei Pearson Korrelation |
| Metaanalyse Definiton | -Effekte einer Vielzahl von empirischen Studien zum selben Thema werden zusammengefasst -der daraus resultierende mittlere Effekt ist eine wensentlih bessere Schätzung für d. wahren Effekt in d. Population als ein einzelner Wert aus einer Studie |
| Multivariate Analyseverfahren | -untersuchen mehr als eine abhänige Variable die Anzahl der abhängigen Variablen kann dabei unterschiedlich groß sein |
| Memos bei der Grounded Theory | =Aufzeichnungen, Notizen, Einfälle, Gedanken aller Art, die Forscher während der Analyse sammelt -zentral Rolle bei Textanalyse & Zusammenfassung d. Ergebnisse -enthalten erste Ideen & Hypothesen über grundlegende Zusammenhänge & Strukturen -beziehen sich auf einzelne Textstellen, ganze o. mehrere Interviews |
| Beispiele für Anwendung der Grounded Theory | -Erforschung neuer inhaltlicher Gebiete, wozu wenig Infos vorhanden sind & umfasst Sachverhalte des subjektiven Erlebens -Verarbeiten bestimmter Krankheiten -Umgang mit neuen Phänomenen (Computer bei älteren Menschen) -Erleben & Verareiten von Stress am Arbeitsplatz |
Want to create your own Flashcards for free with GoConqr? Learn more.