| Pregunta | Respuesta |
| Regressionskoeffizienten b | = Regressionsgewichte = wie groß ist der relative Einfluss eines Prädiktor bei der Vorhersage der abhängigen Variable (der Einfluss der anderen Prädiktoren wurde bereinigt) |
| Beta Gewicht β | standardisierter Regressionskoeffzient |
| Aufklären von Variablen in der multiplen Regression | = Summe von Variablen wollen konkreten Wert einer Person vorhersagen X = genaue Ausprägung der Variablen |
| multiple Regression | = schätzt den Wert einer Person mithilfe der Ausprägungen mehrere Prädiktorvariablen auf einer Kriteriumsvariable |
| Güte der Vorhersage bei multipler Regression | = wie gut ist das gesamte Modell für die Vorhersage des Kriteriums geeignet - Standardschätzfehler - multiplen Determinationskoeffizient R² |
| multiplen Determinationskoeffizient R² | gibt den Anteil der Varianz des Kriteriums an, der durch alle Prädiktoren gemeinsam erklärt wird max. Wert = 1 |
| Standardschätzfehler bei der multiplen Regression | wie stark weichen die vorhergesagten Werte vom tatsächlichen Wert des Kriteriums ab |
| Prüfung des einzelnen Regressionsgewicht auf Signifikanz | t-Wert mit n -2 Freiheitsgraden auf Signifikanz prüfen |
| Signifikanztests bei multipler Regression | wird meist drauf verzichtet, da R² gute Info darstellt Signifikanztest für das komplette Modell: F-Test |
| t-Test | = prüft, ob sich Mittelwerte signifikant unterscheiden - Prinzip aller Signifikanztests: systematische Varianz (Mittelwertsunterschied) geteilt durch Fehlervarianz (SD) |
| t-Test bei zwei unabhängigen Stichproben | = prüft die Signifikanz eines Unterschiedes - Mittelwertsunterschied der Stichprobe wird verglichen mit Mittelwertsunterschied von H0 |
| kritischer t-Wert bei unabhängigen Stichproben | ergibt sich aus der t-Verteilung eines bestimmten Signifikanzniveau (5 oder 1 Prozent) - wird mit empirischen t-Wert verglichen (empirischer Wert muss extremer/absolut größer sein, um signifikant zu sein --> Effekt kann verallgemeinert werden) |
| Freiheitsgrade bei unabhängigen Stichproben | |
| Berechnung des t-Werts bei abhängigen Messungen | |
| t-Test bei einer Stichprobe / Einstichprobenfall | = Mittelwert einer Gruppe wird gegen zweite theoretische Gruppe verglichen |
| Effektgrößen bei unabhängigen Stichproben | - Abstandsmaß d - Abstandsmaß g - Korrelation r - Korrelationskoeffizienten |
| Abstandsmaße beim t-Test (unabhängige Stichprobe) | |
| Korrelation bei t-Tests (unabhängige Stichprobe) | ist identisch mit Korrelationskoeffizienten |
| Effektgrößen bei abhängigen Stichproben | - Abstandsmaße d und g identisch bei Einstichprobenfall |
| Voraussetzungen beim t-Test | - AV ist intervallskaliert - Normalverteilung - ca. gleich große Varianzen - bei unabhängigen Stichproben: Personen beeinflussen sich nicht systematisch gegenseitig |
| Varianzanalyse (ANOVA) | = Verfahren zum Vergleich von Varianzen = Sonderform der multiplen Regression = Vergleich mehrer Mittelwerte möglich - UV darf nominalskaliert sein |
| einfaktorielle ANOVA | = nur eine unabhängige Variable (Faktor) wird untersucht = einfachster Fall |
| relevante Varianzen bei der einfaktoriellen ANOVA | - Gesamtvarianz - erklärte Varianz - nicht erklärte Varianz |
| Gesamtvarianz bei einfaktorieller ANOVA | = Varianz der AV = Summe auf erklärte und nicht erklärte Varianz |
| erklärte Varianz | = Varianz zwischen den Gruppen / Between Varianz / systematische Varianz - mehrere Mittelwertsdifferenzen (Varianz der Mittelwerte), da zwischen jeder Gruppe die Differenz berechnet wird |
| unerklärte Varianz | = unsystematische Varianz / Varianz innerhalb der Gruppe / Within Varianz / Fehlervarianz - Menschen unterscheiden sich und liefern entsprechend unterschiedliche Werte - stellt Fehler dar, der die Aussagekraft unserer Mittelwerte einschränkt |
| Maß der Streuung bei der Varianzanalyse | = Quadratsummen (QS) - sind noch nicht an der Stichprobengröße relativiert |
| Berechnung der Gesamtvarianz bei einfaktorieller ANOVA | =X ist der gemeinsame Mittelwert aller Daten |
| Berechnung der systematischen Varianz (einfaktorielle ANOVA) | = Streuung der Stichprobe - Streuung sollte möglichst groß sein, da wir ja wollen, dass sich unsere Mittelwerte unterscheiden |
| Fehlervarianz bei einfaktoriellen ANOVA | Mittelwert der jeweiligen Gruppe wird verwendet, da wir wissen wollen wie stark die Werte innerhalb der Gruppe variieren |
| Freiheitsgrade bei einfaktorieller ANOVA | k = Anzahl von Gruppen N = Gesamtstichprobe |
| F-Test und t-Test | bei zwei Gruppen kommen sie zum gleichen Ergebnis (F = t²) - F kann nicht negativ sein --> kann Richtung des Unterschieds nicht definieren - bei mehr als 2 Gruppen kann nicht mehrmals ein t-Test durchgeführt werden, denn dadurch verdoppelt sich die Wahrscheinlichkeit des Alpha-Fehlers |
| Einzelvergleiche (Post-hoc-Tests) | = Prüfen der einzelnen Mittelwerts-unterschiede auf Signifikanz im Nachhinein - funktionieren wie t-Tests, allerdings wird Kumulation der Alpha-Fehler berücksichtigt (Alpha-Korrektur) - so viele Einzelvergleiche wie mögliche Vergleiche |
| Ablauf der mehrfaktoriellen Varianzanalyse | F-Wert Berechnen (für jede UV, dabei wird die jeweilige andere UV außer acht gelassen) |
| Haupteffekt | = Effekt der UV = haben die einzelnen UV einen signifikanten Effekt auf die AV - pro UV gibt es einen Haupteffekt |
| Interaktion | = erkennbar ob eine gegenseitige Beeinflussung der beiden UV's vorliegt = bedingter Mittelwertsunterschied - nicht durch die Wirkung einzelner Haupteffekte erklärbar sondern durch deren Kombination - nicht parallele Linien im Diagramm weisen darauf hin |
| Berechnung der Interaktion | Varianz AxB = Gesamtvarianz minus alle bekannten Varianzen |
| Varianzanalyse mit Messwiederholungen | = Abhängige Messungen |
| Freiheitsgrade bei abhängigen Messungen (F-Verteilung) | |
| Mixed Models | = mehrfaktorielle Varianzanalysen, bei denen abhängige und unabhängige Messungen gemischt sind |
| Effektgrößen bei der Varianzanalyse | = Eta-Quadrat = wie groß ist der Anteil der UV-aufgeklärten Varianz an der Gesamtvarianz |
| Eta-Quadrat bei einfaktorieller ANOVA | |
| Eta-Quadrat für alle Arten von Effekte | - für F-Werte von Haupteffekte, Interaktionen oder Messwiederholungen |
| partielles Eta-Quadrat ῃ² | = bezieht sich nur auf einen Part bei der mehrfaktoriellen Varianzanalyse |
| Interpretation von Eta-Quadrat ῃ² | |
| Voraussetzung für Varianzanalyse | - AV muss intervallskaliert - Normalverteilung - Varianz aller Messwerte in allen Gruppen gleich groß |
| F-Test als Signifikanztest bei Regressionsrechnung | = kann das Ergebnis der Regressions-rechnung auf Population übertragen werden - signifikantes Ergebnis = >0 |
| erklärte Varianz zur Berechnung des F-Wertes bei der Regressionsrechnung | |
| Fehlervarianz zur Berechnung des F-Wertes bei der Regressionsrechnung | |
| Alternative zur Berechnung des F-Wertes bei Regressionsrechnung | |
| Kolmogorov-Smirnov-Test | = Test zur Prüfung, ob eine Normalverteilung vorliegt - sollte nicht signifikantes Ergebnis liefern, da sich die Verteilung nicht signifikant von einer Normalverteilung unterscheidet |
| Parametrische Testverfahren | = setzen Normalverteilung von Populationsparameter voraus - daraus resultieren Berechnungen zum Mittelwert, Mittelwertsunterschied, F-Wert, t-Wert... |
| Nonparametrische / verteilungsfreihe Verfahren | = machen keine Annahme über die Verteilung - bei nominal- oder ordinalskalierten Daten & nicht normalverteilten Daten |
| Vor- und Nachteile von nonparametrische Verfahren | + Verteilungsfreiheit + Untersuchung sehr kleiner Stichproben + alle Fragestellungen können untersucht werden - Signifikanz ist schwerer festzustellen |
| Nonparametrische Testverfahren bei Ordinalskalen | - Durchführung für Zusammenhangs- und Unterschiedsfragestellungen (haben parametrische Entsprechung) - Messwerte werden als Ränge behandelt |
| Übersicht parametrische und nonparametrischer Verfahren bei Ordinalskalen | |
| Test für Unterschiede bei zwei unabhängigen Stichproben (nonparametrisches Verfahren) | - U-Test nach Mann und Whitney Maß = zentrale Tendenz = Median |
| U-Test nach Mann und Whitney (nonparametrisches Verfahren) | Erstellung einer gruppenunabhängigen Rangreihenfolge --> Erstellung der Rangsumme (T) je Gruppe --> Erstellung des durchschnittliches Ranges (T/n) (=deskriptives Ergebnis) U = Berechnung der Signifikanz des Unterschieds |
| empirischer Wert des U-Tests (nonparametrisches Verfahren) | = kleinere Wert der beiden Gruppen --> muss gleich oder kleiner sein als der kritische Wert (aus Tabelle) um Signifikant zu sein |
| U-Test bei großen Stichproben (nonparametrisches Verfahren) | |
| Tests für Unterschiede bei mehr als wie unabhängigen Stichproben (nonparametrisches Verfahren) | Vorgehen identisch wie bei 2 Stichproben --> Test ist H-Test nach Kruskal und Wallis - bei großen Stichproben besteht eine Chi-Quadrat-Verteilung |
| Tests für Unterschiede bei zwei abhängigen Stichproben (nonparametrisches Verfahren) | = Wilcoxon-Test / Vorzeichenrangtest - Differenz zwischen Messung1 und Messung2 --> Rangreihenfolge nach steigender Differenz festlegen (Vorzeichenunabhängig, aber Kennzeichnung des Vorzeichen notwendig) --> Addition der jeweiligen Werte zu T+ und T- |
| Interpretation des Wilcoxon-Tests | kleinere Wert von T+ und T- wird für Signifikanzprüfung verwendet --> kleiner/gleich als kritischer T-Wert laut Tabelle |
| Tests für Unterschiede bei mehr als zwei abhängigen Stichproben (nonparametrisches Verfahren) | = Friedman-Test bzw. Rangvarianzanalyse Ablauf: Messwertdifferenzen werden nach Rang sortiert und Rangsummen verglichen - Prüfgröße: Chi-Quadrat |
| Tests für Zusammenhänge (nonparametrisches Verfahren) | = Rangkorrelation --> korreliert die Ränge der jeweiligen Rohwerte Bedingung: monotone Variablen |
| Ablauf der Rangkorrelation (nonparametrisches Verfahren) | - Messwerte in Rangreihenfolge darstellen - Messwerte beider Variablen einzeln in Rangreihenfolge bringen! --> korreliert werden die Rangreihen beider Messgruppen |
| Möglichkeiten der Berechnung der Rangkorrelation (nonparametrisches Verfahren) | - Spearman's Rho (p) - Kendalls Tau (τ) |
| Anwendung von Spearman's Rho (p) | - intervallskalierten Daten, aber verletzte Voraussetzungen - Anwendung als wären Abstände zwischen Ränge gleich groß --> Voraussetzung: intervallskalierte Daten - Signifikanzprüfung mittels t-Test - Größenordnung wird nicht beachtet |
| Berechnung von Spearman's Rho (p) | d(i) = RZ(xi) - RZ (yi) RZ= Rangzahl |
| Kendalls Tau (τ) | setzt keine gleichen Rangintervalle voraus - Werte zwischen -1 und 1 - Signifikanzprüfung mittels z-Test |
| Effektgrößen bei Ordinaldaten | - sind nicht bestimmbar - Unterschiedsfragestellungen: auf Signifikanztest berufen - Zusammenhangsfragestellungen: Rangkorrelation, Interpretation wie Pearson-Korrelation - aber i.d.R. kleinere Werte |
| Anpassungstest (nominalskalierte Variable) | = Chi-Quadrat-Test (X²-Test) - prüft ob empirische Häufigkeitsverteilung mit theoretisch zu erwartenden Häufigkeitsverteilung übereinstimmt |
| Berechnung des Anpassungstests | f(b) = beobachteten Häufigkeiten f(e) = erwarteten Häufigkeiten wird für jede beobachtbare Häufigkeit berechnet und dann alle entsprechend addiert |
| Interpretation des Anpassungstests (nominalskalierte Variable) | erwartete Häufigkeit = Nullhypothese empirischer X²-Wert muss extremer als kritischer X²-Wert zu sein um signifikant zu sein df = k - 1 |
| Goodness-of-fit-Test | Anpassungstest zur Prüfung der Verteilung, vor allem bei komplexen Testverfahren - prüft ob zwei Verteilungen deckungsgleich sind |
| Unabhängigkeitstest bei zwei nominalskalierten Variablen | = prüft ob die Ausprägung einer Variable unabhängig von der Ausprägung einer anderen Variable ist = X²-Test = k*l-X² |
| Kreuztabelle / Kontingenztabelle | bilden verschiedene Kombinationsmöglichkeiten der Ausprägungen der nominalskalierten Variablen ab k*l = Menge der Kombinationsmöglichkeiten |
| Berechnung von X² Unabhängigkeitstest (nominalskalierte Variable) | Formel für beide Variablen (deswegen zwei Summenzeichen) |
| Freiheitsgrade bei X² Unabhängigkeitstest (nominalskalierte Variable) | df = (k-1)(l-1) |
| Interpretation von X² Unabhängigkeitstest (nominalskalierte Variable) | Test ist signifikant, wenn Häufigkeitsverteilung der einen Variable nicht unabhängig der anderen Variable ist |
| Bestimmung der Häufigkeit, wenn keine Gleichverteilung vorliegt (X² Unabhängigkeitstest (nominalskalierte Variable)) | Z = Zeilensumme in Kreuztabelle S = Spaltensummen in Kreuztabelle |
| Unabhängigkeitstests bei Messwiederholungen (=Mc-Nemar-X²-Test) | X² = (b-c)²) / (b+c) --> signifikantes Ergebnis = Verhältnis ist deutlich anders |
| Effektgröße bei Nominaldaten | = Omega für alle X²-Test |
| Teststärke (Power) | = Wahrscheinlichkeit, mit der ein vorhandener Effekt mithilfe eines Testverfahrens identifiziert werden kann = Fläche der Alternativhypothese abzüglich Beta-Fehler --> Power = 1 - β |
| Abhängigkeit der Teststärke | - Alpha-Fehler - Stichprobengröße - Populationseffekt |
| Festlegung der Teststärke vor der Studie | --> resultiert erforderliche Stichprobengröße in Abhängigkeit von Populationseffekt und Alpha Teststärke >0,6 bzw. 60 % |
| Bestimmung der Teststärke nach einer Studie | wenn kein Effekt gefunden wurde, hilft die Teststärke um herauszufinden wie wahrscheinlich es war, überhaupt einen Effekt zu finden der tatsächlich vorhanden ist |
| Kontranstanalyse | = hypothetisches Musters der Mittelwertsunterschiede von Gruppen (z.B. linear, u-förmig...) wird vor der Untersuchung festgelegt |
| Kontrastgewichte / Lambdagewichte λ | = Größe bei der Kontrastanalyse - Muster wird vor der Untersuchung festgelegt - Prüfung nach der Erhebung, ob eine Übereinstimmung vorhanden ist bzw. wie groß die Abweichung ist |
| Vorgehen bei der Kontrastanalyse | Hypothese definieren - Hypothese mit Kontrastgewichte ausdrücken, Relation ist entscheidend --> Summe muss 0 sein - Datenerhebung - Zuweisung & Überprüfung der Kovaration vom Lambda zum Mittelwert - Übereinstimmung = signifikantes Ergebnis |
| Mögliche Darstellung von Kontrasten und Kontrastgewichte | |
| Kontrastanalyse bei unabhängigen Stichproben | - Varianz durch Kontrast ist max, wenn beide Muster identisch sind |
| F-Wert und Freiheitsgrade bei Kontrastanalyse bei unabhängigen Stichproben | - F-Wert wird ebenso interpretiert wie herkömmlicher F-Wert - kann mittels der F-Tabelle auf Signifikanz geprüft werden - Freiheitsgrade = 1 (da nur ein Kontrast getestet wird) |
| Vorteile der Kontrastanalyse | - größere Teststärke (weil Muster von Mittelwertsunterschieden geprüft werden) - bei Zutreffen der Hypothese liefert Kontrastanalyse größeren F-Wert als Varianzanalyse --> Hypothesen müssen präzise formuliert werden - sehr gut interpretierbare Effektgrößen |
| Effektgröße bei Kontrastanalyse für unabhängige Stichproben | = Korrelation r (effect size) - Interpretation wie Pearson-Korrelation - F (ANOVA) = normale F-Wert Berechnung |
| einfachere Rechnung von r (effect size) | - jeder Person das entsprechende Lambdagewicht zuordnen - Lambdagewicht mit Rohdaten korrelieren |
| Kontrastanalyse für abhängige Stichproben | - Muster für Varianz der Werte der einzelnen Personen über Messzeitpunkte - Vorgehen identisch mit unabhängige Prüfung, bis: Prüfen ob entsprechender Verlauf von Lambda bei jeder Person vorliegt --> liegt im Durchschnitt aller Personen der Trend vor |
| L-Wert | = sagt aus, ob das gemessene Muster mit dem unterstellten Muster (Kontrast) bei jeder Person übereinstimmt - L-Wert ist groß, wenn Übereinstimmung vorhanden - wird für jede Person berechnet |
| L-Wert auf Signifikanz prüfen | - Unterscheidet sich der durchschnittliche L-Wert signifikant von 0 --> Prüfung durch t-Test |
| Effektgröße bei der Kontrastanalyse für abhängige Stichproben | Hedge berechnet ob der Durchschnitt der L-Werte sich von 0 unterscheidet |
| Berechnung bei der Metaanalyse (Unterschiedsfragestellung) | - Unterschiedliche Werte der Studien auf eine gemeinsame Effektgröße bringen |
| vertrauenserhöhende Dinge bei der Metaanalyse | - sehr viele Studien sind in die Analyse miteingeflossen - die einzelnen Studien hatten große Stichproben - Streuung der einzelnen Stichproben ist klein |
| Arten von multivariaten Verfahren | - Faktorenanalyse - Clusteranalyse - Multivariate Varianzanalyse - Multidimensionale Skalierung - Conjoint-Analyse - Strukturgleichungsmodelle |
| Faktorenanalyse | - Reduktion vieler AV auf Faktoren und Komponenten durch Korrelation - diese stehen stellvertretend für alle Variablen - es gibt keine UV - Ablauf: hohe Korrelation zwischen Variablen --> Variablen werden durch Faktor ersetzt (beschreibt alle eingeflossenen Variablen) |
| Clusteranalyse | = Reduktion von Fällen (Objekten, Personen durch Zusammenfassung in Gruppen - innerhalb einer Gruppe möglichst ähnlich, zwischen den Gruppen möglichst unähnlich - keine UV |
| Multivariate Varianzanalyse (MANOVA) | = prüft den Effekt einer oder mehrer UV auf mehr als eine AV - Ablauf: Overall-Analyse --> keine Signifikanz = keine weiteren Berechnungen --> Signifikanz = mehrere normale ANOVA für jede AV |
| Multidimensionale Skalierung (MDS) | = Ähnlichkeitsbeurteilung, von Personen für Objekte --> Ableitung: Anzahl und Art der Bewertngsdimensionen - Auffinden der relevanten AV Ablauf: Anzahl der Dimensionen festlegen (2-3) --> wo liegen Objekte in den Dimensionen --> Dimensionen interpretieren |
| Conjoint-Analyse / Verbundanalyse | = prüft den relativen Einfluss eines Merkmals / Merkmalsausprägung zur Bewertung von Objekten durch eine Person - meist durch Präferenzanalyse |
| Strukturgleichungsmodelle | = Kombination aus Faktorenanalyse und Regressionsanalysen - bilden komplexe Zusammenhänge zwischen (meist latenten) Variablen - dienen der Überprüfung sozialwissenschaftlicher Modelle & Theorien |
| quantitative / konventionelle Methoden | Phänomene des Erleben und Verhalten in Zahlen ausgedrückt |
| Positivismus | Phänomene des Erlebens und Verhaltens, die wir beobachten und erforschen |
| Qualitative Methoden | Phänomene des Erleben und Verhalten qualitativ bewerten - Datengrundlage: Text, analysiert nach übergeordneten Bedeutungen und Sinnstrukturen - keine Zahlen, Skalen und Kennwerte |
| qualitative Forschungsprozess | - mit oder ohne gezielter Fragestellung ; bei gezielter Fragestellung: - Daten sammeln (meist Texte, Bilder) - nach jeweiligen qualitativen Methode auswerten - Daten verwenden oder ggf. erneute Datensammlung |
| explorativer Charakter eines Forschungsprozess | neues inhaltliches Gebiet wird erforscht |
| Besonderheit des qualitativen Forschungsprozess | - der Mensch übernimmt die Auswertung --> aber: Subjektivität?! |
| Entkräftigung der Subjektivität bei qualitativer Forschung | - läuft nicht beliebig ab, sondern auch nach bestimmten Regeln und mit mehreren Personen (--> stärt Objektivität) - auch quantitative Forschung ist nicht frei von Subjektivität |
| Anwendungsfelder der qualitativen Forschung | - immer Abhängig von der Fragestellung - als Ergänzung / Bereichung der quantitativen Methoden bei bestimmten Fragestellungen |
| Methoden der qualitativen Forschung | - qualitative Inhaltsanalyse - Grounded Theory - Diskursanalyse |
| Qualitative Inhaltsanalyse | - folg am ehesten dem herkömmlichen Forschungsprozess; gut kombinierbar mit quantitativen Methoden - relativ konkrete Fragestellung - Datenmaterial: Alle Formen von Texte - Ziel: zusammenfassende Beschreibung des Textmaterials & Auffinden von Strukturen aus dem Text |
| Prozess der qualitativen Inhaltsanalyse | - Erstellen der Texte - Zusammenfassen in Kurztext - Erstellen von Kategorien, die für die Fragestellung relevant sind (--> theoriegeleitete Inhaltsanalyse) |
| Anwendung von qualitativer Inhaltsanalyse | - bei subjektivem Erleben - Sinnzusammenhänge - Eindrücke - Meinungen welche nicht quantitativ erfasst werden können |
| Grounded Theory | - strukturierte & differenzierter qualitativer Ansatz - keine Fragestellung gegeben --> neue Theorien / Hypothesen finden - Datengrundlage: Alle Formen von Texte - alles wird immer protokolliert, um nachvollziehen zu können, warum der Forscher diese Schlüsse gezogen hat |
| Codieren bei der Grounded Theory | - zeilenweises Codieren (--> größtmögliche Objektivität) - fokussiertes Codieren (kleine Bedeutungseinheiten aus dem zeilenweisen Codieren werden zu Kategorien zusammengefasst) |
| theoretical sampling (Grounded Theory) | - wenn nach allen analysierten ITW noch Infos fehlen / Unklarheiten bestehen --> weitere ITW werden geführt mit Personen bei denen man glaubt, dass diese die Antworten liefern könnten. - wird so lange gemacht, bis alle offenen Punkte beseitigt wurden |
| Anwendung der Grounded Theory | - Sachverhalte des subjektiven Erlebens, welche neu erforscht werden |
| Diskursanalyse | - Analyse des Konstruktivismus - Datenmaterial: alle Arten von aufgezeichneter Sprache - Ziel: Beantwortung bestimmter Fragestellungen (praktisches Problem oder theoretische Frage) |
| Prozess der Diskursanalyse | - Text lesen --> Codierung auf Relevanz für Ausgangsfrage --> Zentrale Aussagen suchen (auch zwischen den Zeilen lesen, z.B. Grammatik, Metapher...) Ziel: Auffinden übergeordneter Muster oder Vorstellungen, die in der Denkweise des Verfasser verankert sind |
| Vor- und Nachteile der qualitativen Methoden | + größere Flexibilität --> unvoreingenommen für Thema & keine Themen übersehen möchte + einbeziehen des Kontext & zusätzlicher Infos - ungenau und objektiv nicht mehr nachvollziehbarer Umgang mit Daten, Einfluss der Subjektivität zu hoch |
| Schwierigkeiten der qualitativen Forschung | - kaum konkrete Handlungsanweisungen - sehr großer Aufwand für ein / mehrere Forscher --> Kombination aus qualitativer und quantitativer Forschung |
¿Quieres crear tus propias Fichas gratiscon GoConqr? Más información.