FOST 3 - Inferenzstatistik

Description

Wirtschaftspsychologie Psychologie Flashcards on FOST 3 - Inferenzstatistik , created by Valen Tina on 09/11/2016.
Valen Tina
Flashcards by Valen Tina, updated more than 1 year ago More Less
Kathy H
Created by Kathy H over 7 years ago
Valen Tina
Copied by Valen Tina over 7 years ago
59
9

Resource summary

Question Answer
Ziel der Inferenzstatistik Schlüsse von einer Stichprobe auf Population zu ziehen sowie Aussagen über die Güte der Schlüsse
wie kann man sicherstellen, dass Ergebnis einer Stichprobe auf Population verallgemeinert werden kann - Metaanalysen - Berücksichtigung der Wahrscheinlichkeit, dass die Bestimmung des Ergebnisses aus der Stichprobe falsch ist -->wird bei der Darstellung mit angegeben
Stichprobenverteilung = Streuung der Mittelwerte aus einzelnen Stichprobe = zeigt, mit welcher Wahrscheinlichkeit ein Ergebnis erwartet werden kann =wichtigste Grundlage der Inferenzstatistik
Unterschiede der Stichprobenverteilung zur Häufigkeitsverteilung - Werte der Verteilung müssen nicht der Skala entsprechend (da sie Mittelwerte sind) - Y-Achse: Anzahl der Stichproben / Wahrscheinlichkeit - Werte in der Mitte kommen häufigst vor (da Mittelwerte der Studien), Randwerte eher selten
theoretische Stichprobenverteilung = Verteilung aufgrund Ergebnisse einer Stichprobe --> durch deren Kennwerte wird die Stichprobenverteilung am PC simuliert
zentraler Grenzwertsatz = Verteilung einer großen Anzahl von Stichproben folgt immer der Normalverteilung
Vorteil von steigender Stichprobengröße Streuung der Stichprobenverteilung sinkt -->es lässt sich eine bessere Schätzung für die Population ableiten
Kennwerte von Stichprobenergebnisse der Inferenzstatistik - Kennwerte der Lage und Streuung (Mittelwert) - Kennwerte bzgl. Unterschied zwischen Gruppen (Mittelwertsunterschiede) - Kennwerte, die Zusammenhang zwischen Variablen beschreiben (Korrelation)
Standardfehler s(e) = Standardfehler des Mittelwertes = Standard-abweichung der Stichprobenverteilung = durchschnittlicher Unterschied zwischen den geschätzten Mittelwert einzelner Stichproben und dem tatsächlichen Mittelwert
Populationsstreuung = Formel für SD in der Population = exaktere Schätzung als mit der Formel für den Standardfehler
Konfidenzintervalle / Vertrauensintervalle = Wertebereich, bei dem wir darauf vertrauen, dass sich der wahre Wert in der Population mit der Vertrauenswahrscheinlichkeit deckt
Vertrauenswahrscheinlichkeit = gewünschte Güte des Intervalls -ist die Wahrscheinlichkeit,mit der darauf vertrauen können, dass ein bestimmtes Konfidenzintervall den wahren Wert in der Population überdeckt
Konstruktion des Konfidenzintervall 1. Vertrauenswahrscheinlichkeit festlegen 2. Stichprobe und Mittelwert erheben 3. Stichprobenverteilung konstruieren 4. Fläche der Vertrauenswahrscheinlichkeit markieren 5. Werte auf X-Achse, die über und unter der Fläche von 4. liegen, werden abgeschnitten --> Werte bilden unteren & oberen Grenze d. Konfidenzintervalls
Festlegung der Vertrauenswahrscheinlichkeit - Vertrauenswahrscheinlichkeit kann beliebig festgelegt werden, sollte aber nicht zu hoch sein, da sonst die Aussage ihren Wert verliert Normal: 90, 95, selten 99 %
Vorteil des Konfidenzintervalls Interpretation - Wahrscheinlichkeit der Güte einer Schätzung ist vorstellbar -Aber: nur Aussage über die Wahrscheinlichkeit der Korrektheit des Intervalls möglich -mittleren 90% d. Verteilung enthalten Werte, d. bei wiederholter Ziehung von Stichproben aus d. Population 90 von 100 Fällen gezogen würden
Alternative Möglichkeit zur Erstellung der Konfidenzintervalle - große Stichprobe (ab 30 P.): Standardnormalverteilung (Normalverteilung annähert, z-Werte)) - kleine Stichprobe: t-Verteilung
t-Verteilung - Mittelwert 0 - Streuung 1 - Form ist abhängig von der Stichprobengröße - symmetrische Verteilung
Notwendige Werte für die t-Verteilung - Freiheitsgrade (Stichprobengröße)
Freiheitsgrade (df) =Anzahl der Werte, die in einem statistischen Ausdruck frei variieren können (Summe sollte gegeben sein)
Berechnung der oberen und unteren Grenze des Konfidenzintervalls mittels der t-Verteilung bei Mittelwerten
Vorteil von größeren Stichproben bei Konfidenzintervallen - informativer Aussage, da die Grenzen des Intervalls näher zusammen rücken
Standardfehler bei Anteilen 1. Stichprobenverteilung bestimmen --> Binomialverteilung (bei zwei Ausprägungen) 2. Standardabweichung bestimmen (definiert durch n und Wahrscheinlichkeit p, mit der bestimmtes Ereignis zu erwarten ist) -->15%=> p=0,15
Risiken bei Hypothesentesten - Verallgemeinerung auf die Population - Effekte entstanden durch Zufall -> nicht übertragbar auf Population
vertrauensvolle Verallgemeinerung - Berechnung von Standardfehler - Berechnung von Konfidenzintervallen - Durchführung von Signifikanztests
Abhängige Messungen- gemessenen Werte stehen in Beziehung zu einander - Messwiederholungen: within-subject-design: Personen durchlaufen beide Tests - gepaarte Stichproben: matching: Versuchsgruppen werden konstant gehalten, d.h. vergleichbare Personen mit gleichen Ausprägungen d. Störvariablen in Gruppe 1 und 2
unabhängige Messungen = jede Messung wird in jeweiliger Stichprobe bzw. in einer eigenen Gruppe vorgenommen (Versuchsteilnehmer zufällig zugeordnet) - Between-subject-Design: Teilnehmer werden randomisiert und so den verschiedenen Versuchsgruppen zugeordnet
Art der Messung bei Zusammenhangshypothesen abhängige Messung --> es müssen beide Variablen an beiden Gruppen untersucht werden um Messwerte beiden Variablen zuordnen zu können und Streudiagramm erstellen zu können
Standardfehler - s(e) - bei Hypothesentesten (Zusammenhänge & Unterschiede) ist nicht alleine aussagekräftig! Zusätzlich noch Konfidenzintervall und Signifikanztest weil: es geht um Entscheidungen treffen, und da ist s(e) alleine nicht ausreichend -gibt den durchschnittlichen Fehler der Schätzung eines Mittelwertsunterschieds in der Population
Standardfehler für Mittelwertsunterschiede bei unabhängigen Messungen = berechnet aus der Streuung der einzelnen Stichproben Berücksichtigt werden muss die Streuung jeder Stichprobe
Gesamtstreuung (Standardfehler für Mittelwertsunterschied bei unabhängigen Messungen) = Fehlerstreuung (Streuung innerhalb der Gruppen) + systematische Streuung (Streuung zwischen den Gruppen)
Fehlerstreuung (Standardfehler für Mittelwertsunterschied bei unabhängigen Messungen) = Streuung ohne erkennbaren systematischen Grund, die die Messwerte variieren lässt --> schmälert Bedeutsamkeit des gefundenen Effekts (bei großer Fehlerstreuung kann Mittelwertsunterschied auch zufällig entstanden sein) = Streuung innerhalb der Gruppe
systematische Streuung (Standardfehler für Mittelwertsunterschied bei unabhängigen Messungen) = Streuung zwischen den Gruppen = ergibt sich durch den Mittelwertsunterschied = interessanter Effekt
Standardfehler für Mittelwertsunterschiede bei abhängigen Messungen Differenz der Messwerte relevant = Streuung innerhalb der Person ( diesebe Person zu zwei Messzeitpunkten) --> Durchschnitt aller Differenzen über alle Personen hinaus Differenz ist entscheidend
Streuung der Differenz (Standardfehler für Mittelwertsunterschiede bei abhängigen Messungen)
Fehlerstreuung (Standardfehler für Mittelwertsunterschiede bei abhängigen Messungen) besteht nur in der Streuung der Differenz --> Differenzen sollten gleich groß und gleiche Richtung haben. wenn nicht: Vergrößerung der Fehlervarianz --> gefundener Effekt weniger bedeutsam
Korrelationskoeffizient bei Zusammenhänge beschreibt die Enge des Zusammenhangs (r = groß --> Streuung klein)
Standardfehler für Korrelationskoeffizient bei Zusammenhänge r nahe 1 /-1 führt zu Standardfehler nahe 0 p=Population
Regressionsgewicht b = beschreibt den relativen Einfluss einer Variable X auf die andere Y = beschreibt den Anstieg der Regressionsgeraden aus einzelnem Regressionsgewicht kann nicht die Güte abgeleitet werden (da weitere Variablen Einfluss auf Variable Y haben können)
Standardschätzfehler bei der Regression wie stark streuen die Werte um die Regressionsgrade - beschreibt Ungenauigkeit wenn man Y-Werte aus X-Werte mithilfe der Regressiongeraden schätzt = Gütemaß für die Vorhersage
Berechnung des Standardfehler aus dem Regressionskoeffizienten (also aus dem Standardschätzfehler) Bezeichnung: SE
Vorteile von Konfidenzintervalle - leicht verständliche Angabe, ob Effekt durch Zufall entstand oder statistische Bedeutung hat
Konfidenzintervalle für Mittelwertsunterschiede bei unabhängigen Stichproben - Verwendung der Stichprobenverteilung von Mittelwertsunterschieden oder die t-Verteilung
Der Wert 0 beim Konfidenzintervall für Mittelwertsunterschiede bei unabhängigen Stichproben es gibt keinen Mittelwertsunterschied in der Population --> Hypothese verwerfen Gründe: - zu hohe Vertrauenswahrscheinlichkeit - Mittelwert nahe 0 (je kleiner der Effekt desto eher wird 0 Bestandteil des Konfidenzintervalls sein)
Konfidenzintervall für Mittelwertsunterschiede bei abhängigen Stichproben Andere Formel, gleiche Interpretation wie bei unabhängigen Stichproben
Besonderheit des Korrelationskoeffizient bei Zusammenhänge t-Verteilung ist nur symmetrisch, wenn r=0 --> r > 0 -> t-Verteilung unbrauchbar, da unsymmetrische Darstellung --> Nutzung der z-Verteilung
Konfidenzintervalle für Korrelationskoeffizienten bei Zusammenhänge werden meist nicht berechnet, wenn über z-Verteilung Ablauf: Korrelationskoeffizient in z-Wert umrechnen -> kritischen Wert für Intervallgrenzen ablesen --> Grenzen berechnen (siehe Formel) --> Umrechnung auf Korrelationskoeffizient
Berechnung des Konfidenzintervall für Regressionsgewicht β bei unsymmetrischer Verteilung
Signifikanztests Entscheidungshilfe bei Hypothesen es werden Hypothesen gegeneinander getestet (mind. zwei Hypothesen erforderlich) lässt keine Aussage über Wahrscheinlichkeit einer Hypothese zu!
Grundlage der Signifikanztests Stichprobenverteilungen (Verteilungen, die aus theoretischen Überlegungen erwachsen)
Nullhypothese (H0) =zentrale Idee des Signifikanztests = behauptet es gibt keinen Effekt in der Population -Gegenteil von Alternativhypothese (H1): unterstellt solchen Effekt in der Population -Alternativhypothese= Forschungshypothese (Hypothese ergibt sich aus Forschungshypothese, enthält eigentliche Forschungsfrage) --> Achtung bei Berechnung und Interpretation
Stichprobenverteilung bei der Nullhypothese Mittelwert = 0
p-Wert = Wahrscheinlichkeit des gefundenen Effekts einer Stichprobe unter der Annahme, dass die Nullhypothese gilt
Irrtumswahrscheinlichkeit α, auch als Signifikanzniveau / Alpha-Niveau bezeichnet -Vor Durchführung d. Signifikanztests, erfolgt Festlegung der Irrtumswahrscheinlichkeit = diesen entspricht d .Wert für p, ab dem man die Nullhypothese nicht mehr akzeptiert - kleinere Werte = signifikant -> Ablehnung der Nullhypothese
Alpha-Fehler = legt das Niveau der Irrtumswahrscheinlichkeit fest = Risiko die Nullhypothese fälschlicherweise abzulehnen (irren in der Entscheidung d. Ablehnung) p < α Ergebnis ist signifikant = Ablehnung der Nullhypothese
"Entstehung" des p-Wertes t-Werte der Stichprobe = Mittelwert = 0 --> entspricht Verteilung der Nullhypothese --> p-Wert aus Verteilung ablesen
Prüfverteilungen - z-Verteilung (ist einzelner Wert signifikant, innerhalb einer Stichprobe einzelnen Wert bestimmen) - t-Verteilung (bei Mittelwertsunterschieden, Korrelationskoeffizienten und Regressionsgewichten)
einseitige Tests = Hypothese geht nur in eine Richtung - Effekt ist auf der rechten Seite der Nullhypothese zu finden -schließen Alpha-Fehler auf der linken Seite aus --> müssen keinen Signifikanztest machen, wenn Kontrollgruppe höhere Werte erzielt, da Hypothese bereits widerlegt ist
zweiseitige Tests = Richtung des Effekts ist unbekannt - Effekt kann auf beiden Seiten der t-Verteilung liegen --> Alpha-Fehler muss auf beide Seiten gleich aufgeteilt werden, dadurch wird es schwerer ein signifikantes Ergebnis zu erzielen
Alternativhypothese = unterscheidet sich um die Größe des erwarteten Effekts von der Nullhypothese H0 -beschreibt d. Effekt , den man als mind. oder interessanten Effekt für d. Population annimmt
Verteilung der Alternativhypothese -theoretische Verteilung bestimmbar durch: - Größe des interessanten Mindesteffekts - Effekte aus bereits durchgeführten Studien Überschneidung mit H0
Fehler erster Art = Alpha-Fehler--> ist die Wahrscheinlichkeit, mit der wir beim Signifikanztest aufgrund eines Stichprobenergebnisses fälschlicherweise d. Alternativhypothese annehmen -Nullhypothese wird fälschlicherweise verworfen,obwohl in der Population gilt H0 -Interessante Teil der Verteilung: rechter Überschneidungsbereich
Fehler zweiter Art = Beta-Fehler-->Wahrscheinlichkeit im Signifikanztest, bei dem d. Alternativhypothese fälschlicherweise abgelehnt wird, obwohl in der Population gilt H1 (H0 wrd angenmmen) -Interessante Teil der Verteilung: linker Überschneidungsbereich
Abwägung von Alpha- und Beta-Fehler -Abhängig von der Fragestellung, relevant wenn Verteilungen sich stark überschneiden -beide Fehler haben andere inhaltliche Bedeutungen & Wichtigkeit hängt von d. jeweiligen Fragestellung ab
Minimierung der Alpha- und Beta-Fehler - Effekt in der Population ist groß, Verteiligungen liegen weit von einander entfernt & Überschneidung wird kleiner - größere Stichprobe -> Verteilung wird schmaler, geringe Überlappung
Ablauf der Signifikanztest unter Berücksichtigung der Alternativhypothese
Hybrid-Vorgehensweise = Alternativhypothese formulieren und Abwägung der Fehler erster und zweiter Art wird nicht gemacht -erhalten Handlungsoption, wenn Ergebnis nicht signifikant ist -> H0 stimmt
Einflussgrößen auf Signifikanztests - Größe des Populationseffekts (kenne d. Größe nicht) - Stichprobengröße (Einfluss auf d. Breite d. Stichprobenverteilung) - Alpha-Niveau (entscheidet, ob Ergebnis signfikant o. nicht ist)
Kritik an Signifikanztests - aus Signifikanztest kann die Größe eines Effektes in der Population nicht geschätzt werden --> inhaltliche Bedeutung ebenfalls nicht erkennbar -sehr theoretisches Testverfahren
Zusätzlich notwendige Angaben zu Signifikanztests - Konfidenzintervalle - Effektgrößen
Effektgröße (Maß) = standardisierte Effekte, welche die Stichprobengröße berücksichtigen --> sind über Stichproben und Themenbereiche hinweg vergleichbar
Möglichkeiten der Berechnung der Effektgrößen - aus Rohdaten - aus anderen Effektgrößen - aus Signifikanztestergebnissen
Effektgrößen aus Rohdaten - bei unabhängigen Messungen - bei abhängigen Messungen - für Zusammenhänge (Korrelationskoeffizient)
Abstandsmaß d (bei unabhängigen Messungen) repräsentieren den Abstand der Mittelwerte --> Effektgröße erhöht sich, wenn Streuung kleiner wird
Streuung für Abstandsmaß nach Cohens (bei unabhängigen Messungen) -Stichproben-streuung -S²A= SD von A (Versuchsgrupe) &S²B=SD von B (Kontrollgruppe)
Alternative zum Abstandsmaß (bei unabhängigen Messungen) = Hedges' (g) aus Populationsstreuung -liefert exaktere Schätzungen als d
Berechnung von Hedges bei unabhängigen Messungen Populationsstreuung bestimmen
Abstandsmaß d bei abhängigen Messungen
Hedges g bei abhängigen Messungen
Überführung Unterschieds- und Zusammenhangsfragen bei Effektgrößen n = ist Gesamtstichprobe Freiheitsgrade = n - k (Anzahl der Gruppen)
Berechnung Korrelation aus Abstandsmaßen nur bei gleicher Stichprobengröße
Berechnung Abstandsmaße aus Korrelation
Effektgröße aus Signifikanztestergebnissen Signifikanztestergebnis = Prüfgröße Größe der Studie = mithilfe der Freiheitsgrade
Interpretation von Effektgrößen - Abhängig von der Fragestellung - Anwendung von Konventionen -Unterschied von r im höheren Wertebereich viel bedeutender -d,g & r: Grenzen zwischen 1 & -1
Grundgesamtheit (Population) -Gruppe von Menschen, für die eine Aussage zutreffen soll, i.d.R. alle Menschen -manchmal ist die Grundgesamtheit eine spezifische Gruppe, z.B. Jugendliche in Bezug auf Computerspiele & Gewalt
Metaanalyse = Analyse aus vielen Analysen -verschiedene Forscher führen zur selben/ähnlichen Fragestellung Studien durch--> eher Ausnahme -Ergebnisse werden gesammelt & durchschnittlicher Effekt wid bestimmt -gute Schätzung für wahre Verhältnisse in der Population Güte der Schätzung steigt mit der Anzahl der Studien
empirische Stichprobenverteilung -Kennwerte einzelner Stichproben in einer neuen Verteilung abgetragen -ergibt sich aus tatsächlich erhobenen Daten -Ergebnis vieler Studien liefert bessere Schätzung als Ergebnis einzelner Studie
Stichprobenverteilung im Detail =mit welcher Wahrscheinlichkeit ein bestimmtes Ergebnis zu erwarten ist -X-Achse=mögliche Werte, die man in d. Population finden kann & auf d. Y-Achse d. Wahrscheinlichkeit den entsprechenden Wert zu ziehen -bestimmte Fläche unter d. Verteilung entspricht d. Wahrscheinlichkeit, mit d. die Werte innerhalb dieser Fläche zu erwarten sind
Standardfehler- Symbole -Ô=geschätzte Streuung für d. Poulation - X=Mittelwert -ÔX= Standardfehler
Benutzung der Tabelle der t-Verteilung -bei Freiheitsgrade nachschauen (df=20-1=19) -Vertrauenswahrscheinlichkeit von 95%, von jeder Seite 2,5% abschneiden, ergibt Flächenanteil von 0,975 -somit beträgt der t-Wert 2,093 -z-Tabelle: df unrelevant, nur 0,975 wichtig
Berechnung des Konfidenzintervalls bei Anteilen -Binominalverteilung geht bei sehr kleinen in Standardnormalverteilung über -->daher häufige Nutzung -z-Wert wird aus der Tabelle abgelesen
Beurteilung Standardfehler für Anteile -durchschnittlicher Fehler, der bei der Verallgemeinerung des Stichprobenergebnisses auf die Population -Größe des Standardfehler--> die Schätzung ist mit eine durchschnittlichen Fehler von 3,57 % behaftet
Hypothesentesten allgemein -Hypothesen beziehen sich auf Zusammenhänge zwischen Variablen oder Unterschiede zwischen bestimmten Gruppen, mind. zwei Messungen -Hypothesen=Aussagen, die aus einer Theorie ableiten lassen -manchmal ist es eine Fragestellung(nicht aus Theorie abgeleitet) zum Unterschied o. Zusammenhang
Unterschiedshypothesen und Zusammenhangshypothesen -Unterschied in der Lage zweier Gruppen/ Stichproben-->Lage=Mittelwert gemeint; Mittelwertsunterschied -beziehen sich auf d. Zusammenhang zweier Variablen-->damit ist Korrelation zweier Variablen gemeint
Was ist ein Effekt? -bezeichnet eine Wirkung (Effekt) einer unabhängigen auf eine abhängige Variable -lassen sich in Form von Unterschieden o. Zusammenhängen beinhalten, z.B. Unterschied des Glückempfindens beider untersuchten Gruppen
Streuung der Differenz (Standardfehler für Mittelwertsunterschiede bei abhängigen Messungen) - Erläuterung der Berechnung -zuerst von jedem Differenzwert diffi den Mittelwert aller Differenzwerte abziehen und diese Differenen quadrirt (Xdiffi-_Xdiff)² -und das für jedes Messpaar, also n Mal (n=Anzahl d. Messpaare) & summiert alle Werte auf & teil es durch n-1
Standardfehler für Mittelwertsunterschiede bei abhängigen Messungen - Formel Ôdiff Ô⨱diff=_____________ √n Standardfehler des Mittelwertsunterschiedes kann aus der Streuung berechnet werden
Alpha-Fehler im Detail -alle Ergebnisse d. Stichprobe, deren Wahrscheinlichkeit p kleiner als 5 % ist, führt zur Ablehnung Nullhypothese -um Irrtumsrisiko zu minimieren, wird Alpha meist auf 5% o. 1 % festgelegt
Einseitig & zweiseitige Tests -Häufikeiten & Varianzen können nicht negativ sein & Tests sind daher einseitig -bei Mittelwertsunterschieden von zwei Messungen, kann eine Hypothese über die Richtung des Unterschiedes anzugeben
Effektgröße für Zusammenhänge -rxy= cov / SxSy -Kovarianz beider Variablen durch gemeinsame Streuung d. Variablen geteilt -im Korrelationskofffizienten ist Effektgröße bereits vorhanden
Show full summary Hide full summary

Similar

FOST 4 - Inferenzstatistik 2 und qualitative Methoden
Kathy H
FOST 2 Deskriptive und explorative Datenanalyse
Kathy H
FOST 3 - Inferenzstatistik
Vanesssa Porth
FOST 4 - Inferenzstatistik 2 und qualitative Methoden
Vanesssa Porth
FOST 2 Deskriptive und explorative Datenanalyse
Vanesssa Porth
FOST 1 - Erkenntnisgewinnung und Datenerhebung in der Psychologie
Kathy H
GPSY ALPS
Simon Wirsching
GPSY SOPS
Simon Wirsching
GPSY ALPS
hf.meyer
Klinische Psychologie Teil 1
Lisa Mariá Hchil
GPSY ALPS
jennifertittmann