Statistik und Forschungsmethoden -  Michael Eid,  Mario Gollwitzer,  Manfred Schmitt

Statistik und Forschungsmethoden (eBook)

Lehrbuch. Mit Online-Material
eBook Download: PDF
2017 | 5. Auflage
1088 Seiten
Beltz (Verlag)
978-3-621-28622-0 (ISBN)
Systemvoraussetzungen
56,99 inkl. MwSt
  • Download sofort lieferbar
  • Zahlungsarten anzeigen
Methodenlehre zählt nicht zu den beliebtesten Fächern in der Psychologie und die Statistik-Prüfung schreckt viele Studierende ab. Im Lehrbuch von Eid, Gollwitzer und Schmitt werden die Verfahren anschaulich und nachvollziehbar dargestellt. Die Formeln werden durch die ausführliche Schritt-für-Schritt-Anleitung der Rechenschritte nachvollziehbar. Beispiele und konkrete Anwendungen ergänzen die Erläuterungen. Dabei sind viele Formeln notwendig, Rechenschritte werden aber immer in einzelnen Schritten erläutert und durch Beispiele und konkrete Anwendungen ergänzt. So leuchtet den Lesern schnell ein, wie Statistik funktioniert - und wozu sie gut ist. Für Bachelor-/Master- und Diplomstudiengänge. Das erfolgreiche Lehrbuch »Statistik und Forschungsmethoden« wurde grundlegend überarbeitet und erweitert. Ergänzt wurden u.a. ein Kapitel zur Multivariaten Varianzanalyse (MANOVA), ein Abschnitt zur Replikation psychologischer Befunde und zur Veränderungsanalyse mit Mehrebenenmodellesowie ein Glossar mit über 200 Fachbegriffen zum Nachschlagen. Online-Materialien für Studierende: Kommentierte Links zu frei verfügbaren Computerprogrammen; Datensätze zum Selbst-Nachrechnen; Lösungen der Übungsaufgaben. Für die Lehre stehen alle Abbildungen und Tabellen des Werks zum Download zur Verfügung. Aus dem Inhalt: Forschungsmethoden • Messtheoretische und deskriptivstatistische Grundlagen • Wahrscheinlichkeitstheorie und inferenzstatistische Grundlagen • Methoden zum Vergleich von Gruppen • Zusammenhangs- und Regressionsanalyse • Modelle mit latenten Variablen • Glossar

Prof. Dr. Michael Eid, Lehrstuhl Methoden und Evaluation, FU Berlin.

Inhaltsübersicht 6
Inhalt 8
Danksagung und Vorwort zur 4. Auflage 22
Wegweiser 24
I Forschungsmethoden 34
1 Was sind Methoden, und wozu sind sie gut? 36
1.1 Erkenntnismethoden und?Interventionsmethoden 36
1.2 Methoden der Datengewinnung und der Datenauswertung 37
1.3 Warum sind Methodenkenntnisse wichtig? 38
2 Struktur und Ablauf wissenschaftlicher Untersuchungen 40
2.1 Hypothesen, Ebenen wissenschaftlicher Aussagen und die Überbrückungsproblematik 40
2.1.1 Prüfbare und nicht-prüfbare Aussagen 40
2.1.2 Wissenschaftliche Hypothesen 41
2.1.3 Überbrückungsprobleme 42
2.2 Schritte im Forschungsprozess 43
2.2.1 Entstehung eines Erkenntnisinteresses 43
2.2.2 Sammlung verfügbaren Wissens 44
2.2.3 Entwicklung einer Fragestellung oder Hypothese 44
2.2.4 Planung einer Untersuchung 45
2.2.5 Durchführung der Untersuchung 47
2.2.6 Auswertung der Daten 48
2.2.7 Schlussfolgerungen aus der Untersuchung 49
2.2.8 Mitteilung der Untersuchung 49
3 Methoden der Datengewinnung 52
3.1 Kriterien für die Wahl einer Erhebungsmethode 52
3.2 Ordnungsmöglichkeiten 53
3.3 Darstellung einzelner Erhebungsmethoden 56
3.3.1 Verhaltensbeobachtung 56
3.3.2 Gespräch (?Interview, Exploration, Anamnese?) 58
3.3.3 Schriftliche Befragung und Fragebogen 60
3.3.4 Textanalytische Methoden 63
3.3.5 Tests 64
3.3.6 Computerbasierte Verfahren 66
3.3.7 Apparative Verfahren zur Erfassung psychomotorischer Leistungen 68
3.3.8 Psychobiologische Verfahren 69
3.3.9 Nicht-reaktiv gewonnene Daten 71
3.3.10 Projektive Verfahren 72
3.3.11 Reaktionszeitgestützte Verfahren 73
3.4 Multimethodale Erfassung menschlichen Erlebens und Verhaltens 75
4 Forschungsansätze und -strategien in der Psychologie 82
4.1 Methodologische Grundbegriffe 83
4.1.1 Variablen und Konstanten 83
4.1.2 Merkmale und Merkmalsträger 83
4.1.3 Arten von Variablen in?der?Psychologie 83
4.2 Voraussetzungen für kausale Schlussfolgerungen 85
4.3 Experimenteller Ansatz 86
4.3.1 Systematische Störvariablen 87
4.3.2 Unsystematische Störvariablen 88
4.3.3 Kontrolle von Störvariablen 88
4.3.4 Externe Validität 91
4.4 Quasi-experimenteller Ansatz 93
4.5 Korrelativer Ansatz 95
4.6 Sekundär- und Metaanalysen 97
II Messtheoretische und deskriptivstatistische Grundlagen 102
5 Messtheoretische Grundlagen 104
5.1 Skalenniveau 104
5.1.1 Skalenniveaus im Überblick 105
5.1.2 Skalenniveau und andere Variablenarten 107
5.2 Messen in der Psychologie: Grundideen am Beispiel der Nominalskala 107
5.2.1 Relation 107
5.2.2 Relativ (?relationales System?) 109
5.2.3 Homomorphismus 110
5.2.4 Grundlegende Fragen der Messtheorie 110
5.3 Definition der Nominalskala 111
5.3.1 Das empirische Relativ der?Nominalskala 111
5.3.2 Das numerische Relativ der?Nominalskala 112
5.3.3 Nominalskala und Nominalskalenmodell 113
5.3.4 Zulässige Transformationen und?Eindeutigkeit 113
5.3.5 Bedeutsamkeit 114
5.3.6 Anwendung von Nominalskalen 114
5.3.7 Das Wesentliche zum Nominalskalenmodell 115
5.4 Definition der Ordinalskala 115
5.4.1 Das empirische Relativ der?Ordinalskala 115
5.4.2 Das numerische Relativ der?Ordinalskala 116
5.4.3 Ordinalskala und Ordinalskalenmodell 117
5.4.4 Zulässige Transformationen und Eindeutigkeit 119
5.4.5 Bedeutsamkeit 120
5.4.6 Anwendung von Ordinalskalen 120
5.4.7 Das Wesentliche zum Ordinalskalenmodell 121
5.5 Kardinalskalierte oder metrische Variablen 121
5.5.1 Definition der Intervallskala 122
5.5.2 Definition der Verhältnisskala 123
5.5.3 Definition der Absolutskala 124
5.6 Inklusionsregel zulässiger Transformationen 124
6 Univariate Deskriptivstatistik 128
6.1 Grundbegriffe der Deskriptivstatistik 128
6.1.1 Datenmatrix 128
6.1.2 Häufigkeitsverteilung 129
6.2 Deskriptivstatistik für nominalskalierte Variablen 134
6.2.1 Zentrale Tendenz und Modalwert 134
6.2.2 Dispersion und relativer Informationsgehalt 134
6.3 Deskriptivstatistik für ordinalskalierte Variablen 136
6.3.1 Häufigkeitsverteilungen 137
6.3.2 Zentrale Tendenz und Median 140
6.3.3 Dispersion und Interquartilsbereich 1
6.4 Deskriptivstatistik für metrische Variablen 144
6.4.1 Häufigkeitsverteilungen 144
6.4.2 Kennwerte der zentralen Tendenz 154
6.4.3 Quantile 160
6.4.4 Streuungskennwerte 161
6.4.5 Schiefe und Kurtosis 165
6.5 Standardwerte und z-Transformation 166
6.6 Bivariate und multivariate Deskriptivstatistik 167
III Wahrscheinlichkeitstheorie und inferenzstatistische Grundlagen 170
7 Wahrscheinlichkeitstheorie und?Wahrscheinlichkeitsverteilungen 172
7.1 Wahrscheinlichkeiten für Zufallsereignisse 173
7.1.1 Zufallsvorgang, Zufallsexperiment und Ergebnisraum 173
7.1.2 Zufallsereignis 1
7.1.3 Laplace-Wahrscheinlichkeit und?Laplace-Experiment 175
7.1.4 Kombinatorik 176
7.1.5 Definition der Wahrscheinlichkeit nach Kolmogorov 178
7.1.6 Bedingte Wahrscheinlichkeiten 184
7.1.7 Das Bayes-Theorem 186
7.2 Wahrscheinlichkeitsverteilungen für diskrete Zufallsvariablen 192
7.2.1 Gleichverteilung 197
7.2.2 Bernoulli-Verteilung und?Indikatorvariablen 197
7.2.3 Binomialverteilung 198
7.2.4 Multinomialverteilung 202
7.2.5 Hypergeometrische Verteilung 202
7.2.6 Geometrische Verteilung 203
7.2.7 Poisson-Verteilung 203
7.3 Wahrscheinlichkeitsverteilungen für stetige Zufallsvariablen 203
7.3.1 Gleichverteilung 207
7.3.2 Exponentialverteilung 208
7.3.3 Normalverteilung 209
7.3.4 Weitere stetige Wahrscheinlichkeitsverteilungen 212
8 Grundlagen der Inferenzstatistik 218
8.1 Der Nullhypothesentest nach Fisher 219
8.2 Binäres Entscheidungskonzept von Neyman und Pearson 222
8.3 Effektgrößen 229
8.4 Statistisches Testen an Stichproben 231
8.5 Parameterschätzung 243
8.5.1 Gütekriterien der Parameterschätzung 243
8.5.2 Konfidenzintervall 249
8.5.3 Schätzung des Standardfehlers bei unbekannter Populationsvarianz 254
8.6 Konfidenzintervalle für Effektgrößen 257
8.6.1 Konfidenzintervall für Effektgrößen bei bekannter Populationsstandardabweichung 257
8.6.2 Konfidenzintervall für Effektgrößen bei unbekannter Populationsstandardabweichung 260
8.7 Testplanung und Poweranalyse 263
8.7.1 Post-hoc-Poweranalyse 264
8.7.2 A-priori-Poweranalyse 265
8.8 Das Überprüfen statistischer Hypothesen in der Psychologie ... 266
8.8.1 Schritte beim statistischen Testen 267
8.8.2 Statistisches Testen in der wissenschaftlichen Praxis 267
8.8.3 Empfehlungen der »Task Force on Statistical Inference« 268
8.9 Replikation von Forschungsergebnissen 270
8.9.1 Notwendigkeit und Vernachlässigung von Replikationen 270
8.9.2 Präferenz für signifikante Befunde 270
8.9.3 Subtile Strategien der Fälschung von Forschungsergebnissen 272
8.9.4 Neue Entwicklungen 273
9 Die Welt inferenzstatistischer Verfahren: Überblick, Systematik, Auswahlstrategien 280
9.1 Warum braucht man verschiedene statistische Tests? 280
9.2 Unterscheidungsmerkmale statistischer Tests 281
9.2.1 Exakte vs. asymptotische Tests 281
9.2.2 Parametrische vs. nonparametrische Verfahren 282
9.2.3 Robuste Verfahren 282
9.2.4 Resampling-Verfahren 283
9.3 Population, Stichprobe und Repräsentativität: Konsequenzen für inferenzstatistische Verfahren 286
9.3.1 Population (?Grundgesamtheit?) 286
9.3.2 Stichprobe 289
9.3.3 Repräsentativität und fehlende Werte 291
9.4 Auswahl eines Verfahrens 293
9.4.1 Univariate, bivariate, multivariate Verfahren 293
9.4.2 Gerichtete vs. ungerichtete Zusammenhänge 294
9.4.3 Manifeste vs. latente Variablen 295
9.4.4 Skalenniveau und Variablenart 295
9.4.5 Auswahl eines statistischen Verfahrens 296
9.5 Weiterer Aufbau des Buches 297
IV Methoden zum Vergleich von Gruppen 300
10 Einstichproben- und Anpassungstests 302
10.1 Vergleich eines Mittelwerts mit einem fixen Wert 302
10.2 Vergleich eines Medians mit einem fixen Wert 306
10.3 Vergleich einer Stichprobenvarianz mit einer Populationsvarianz 311
10.4 Vergleich einer relativen Häufigkeit mit einer theoretischen Wahrscheinlichkeit (?Binomialtest) 316
10.5 Vergleich der Häufigkeitsverteilung eines kategorialen Merkmals ... 318
10.6 Überprüfung von Verteilungsannahmen bei stetigen Merkmalen 323
10.6.1 Kolmogorov-Smirnov-Test (?KS-Anpassungstest?) 323
10.6.2 ?2-Anpassungstest 327
11 Unterschiede zwischen zwei unabhängigen Stichproben 332
11.1 Vergleich zweier Stichprobenmittelwerte (?Zweistichprobentests?) 332
11.1.1 Bekannte Populationsvarianzen: Der Zweistichproben-Gauß-Test 332
11.1.2 Unbekannte Populationsvarianzen: Der t-Test für unabhängige Stichproben 335
11.2 Vergleich zweier Stichprobenmediane (?Wilcoxon-Rangsummen-Test bzw. U-Test?) 344
11.3 Vergleich zweier Stichprobenvarianzen (?Varianzhomogenitätstests?) 350
11.3.1 F-Test auf Varianzhomogenität 350
11.3.2 Levene-Test 353
11.4 Vergleich von Häufigkeitsverteilungen zwischen zwei unabhängigen Stichproben 355
11.4.1 Vierfelder-?2-Test 355
11.4.2 Fisher-Yates-Test 1
11.5 Der Zweistichproben-?2-Test 1
12 Unterschiede zwischen zwei abhängigen Stichproben 368
12.1 Vergleich der zentralen Tendenz zweier abhängiger Stichproben 370
12.1.1 Parametrischer Test: Der t-Test für abhängige Stichproben 370
12.1.2 Nonparametrische Tests 378
12.2 Vergleich von Häufigkeitsverteilungen zwischen zwei abhängigen Stichproben 1
12.2.1 Dichotome Merkmale: Der McNemar-Test 1
12.2.2 Mehrkategoriale Merkmale: Der Bowker-Test 387
13 Unterschiede zwischen mehreren unabhängigen Stichproben: Varianzanalyse und verwandte Verfahren 392
13.1 Einfaktorielle Varianzanalyse 393
13.1.1 Grundidee der Varianzanalyse 393
13.1.2 Messwertzerlegung 394
13.1.3 Zerlegung der Bedingungsmittelwerte und Effekte einzelner Bedingungen 395
13.1.4 Quadratsummenzerlegung 397
13.1.5 Populationsmodell der einfaktoriellen Varianzanalyse 400
13.1.6 Schätzung der Populationsparameter 403
13.1.7 Überprüfung der Nullhypothese: Der F-Test der einfaktoriellen Varianzanalyse 405
13.1.8 Verletzungen der Voraussetzungen 409
13.1.9 Effektgrößenmaße und Konfidenzintervall 410
13.1.10 Poweranalyse 414
13.1.11 Varianzanalyse mit zufälligen Effekten 416
13.1.12 Paarvergleiche und Post-hoc-Tests 416
13.1.13 Kontrastanalyse 421
13.2 Zweifaktorielle Varianzanalyse 431
13.2.1 Grundidee der zweifaktoriellen Varianzanalyse 433
13.2.2 Messwertzerlegung 433
13.2.3 Quadratsummenzerlegung 439
13.2.4 Populationsmodell der zweifaktoriellen Varianzanalyse 442
13.2.5 Schätzung der Populationsparameter 444
13.2.6 Überprüfung der Nullhypothesen 444
13.2.7 Effektgrößenmaße und Konfidenzintervalle 448
13.2.8 Post-hoc-Tests und geplante Kontraste 451
13.2.9 Ungleiche Stichprobengrößen: Nonorthogonale Varianzanalyse 454
13.2.10 Mehrfaktorielle Varianzanalyse 454
13.3 Test auf Gruppenunterschiede für Rangdaten (?Kruskal-Wallis-Test?) 455
13.4 Verfahren für kategoriale abhängige Variablen 457
14 Unterschiede zwischen mehreren abhängigen Stichproben: Varianzanalyse mit Messwiederholung ... 462
14.1 Einfaktorielle Varianzanalyse mit Messwiederholung 463
14.1.1 Messwertzerlegung 465
14.1.2 Quadratsummenzerlegung 465
14.1.3 Effektgrößenmaße 468
14.1.4 Populationsmodell der einfaktoriellen Varianzanalyse mit Messwiederholung 470
14.1.5 Schätzung der Populationsparameter 472
14.1.6 Inferenzstatistik der einfaktoriellen Varianzanalyse mit Messwiederholung 473
14.1.7 Sphärizität und Compound Symmetry 475
14.1.8 Effektgrößenmaße und Konfidenzintervalle 478
14.1.9 A-priori-Poweranalyse: Planung des optimalen Stichprobenumfangs 480
14.1.10 Kontrastanalyse 482
14.2 Zweifaktorielle Varianzanalyse mit Messwiederholung 485
14.2.1 Zweifaktorielle Varianzanalyse mit Messwiederholung auf beiden Faktoren 485
14.2.2 Zweifaktorielle Varianzanalyse mit Messwiederholung auf einem Faktor 493
14.3 Nichtparametrischer Test für Medianunterschiede zwischen abhängigen Stichproben ... 501
14.4 Verfahren für kategoriale abhängige Variablen 503
15 Unterschiede zwischen mehreren Stichproben auf mehreren abhängigen Variablen ... 506
15.1 Multivariate vs. univariate Varianzanalysen 506
15.2 Zielsetzungen und Grundideen der multivariaten Varianzanalyse 1
15.3 Einfaktorielle multivariate Varianzanalyse 508
15.3.1 Messwertzerlegung 508
15.3.2 Quadratsummenzerlegung 509
15.3.3 Kreuzproduktsummenzerlegung 509
15.3.4 Zusammenfassende Darstellung der Quadrat- und Kreuzproduktsummen 510
15.3.5 Diskriminanzfunktion 511
15.3.6 Effektgröße 515
15.3.7 Populationsmodell der multivariaten Varianzanalyse 1
15.3.8 Überprüfung der Nullhypothese 517
15.3.9 Effektgrößen und Konfidenzintervalle 1
15.3.10 Poweranalyse 523
15.3.11 Post-hoc-Tests und Kontrastanalyse 524
15.4 Spezialfälle und Erweiterungen 525
V Zusammenhangs- und Regressionsanalyse 528
16 Zusammenhänge zwischen zwei Variablen: Korrelations- und Assoziationsmaße 530
16.1 Erläuterung des Korrelationsprinzips an drei Beispielen 530
16.2 Tabellarische und grafische Darstellung von bivariaten Messwertreihen 532
16.3 Korrelationskoeffizienten 536
16.3.1 Zwei metrische Variablen 536
16.3.2 Zwei ordinalskalierte Variablen 544
16.3.3 Zwei dichotome nominalskalierte Variablen 554
16.3.4 Zwei polytome nominalskalierte Variablen 562
16.3.5 Eine dichotome Variable und eine metrische Variable 566
16.3.6 Eine dichotome nominalskalierte Variable und eine ordinalskalierte Variable 567
16.3.7 Weitere Skalenkombinationen 569
16.3.8 Wahl eines Korrelationskoeffizienten 570
16.4 Inferenzstatistik zu bivariaten Zusammenhangsmaßen 570
16.4.1 Zwei metrische Variablen 571
16.4.2 Assoziationsmaße für ordinale Variablen 580
16.4.3 Assoziationsmaße für dichotome Variablen 583
16.4.4 Assoziationsmaße für nominalskalierte Variablen 585
16.4.5 Andere Assoziationsmaße 586
17 Abhängigkeiten zwischen zwei Variablen: Einfache lineare Regression 590
17.1 Kleinste-Quadrate-Kriterium 592
17.2 Regressionsgleichung 596
17.3 Regressionsresiduum 597
17.4 Quadratsummenzerlegung und Varianzzerlegung 598
17.5 Determinationskoeffizient und Indeterminationskoeffizient 599
17.6 Negatives Regressionsgewicht und Regressionsrichtung 600
17.6.1 Negatives Regressionsgewicht 600
17.6.2 Regressionsrichtung 601
17.7 Regression standardisierter Werte 602
17.8 Bedeutung der linearen Regression 603
17.9 Inferenzstatistik der einfachen linearen Regression 603
17.9.1 Populationsmodell der einfachen linearen Regression 604
17.9.2 Inferenzstatistische Schätzung und Testung 605
17.9.3 Schätzung der Residualvarianz und des Standardschätzfehlers 607
17.9.4 Schätzung und Überprüfung des Regressionsgewichts ?1 607
17.9.5 Schätzung und Überprüfung des Achsenabschnitts ?0 608
17.9.6 Schätzung der bedingten Erwartungswerte 609
17.9.7 Vorhersage individueller Kriteriumswerte 610
17.9.8 Schätzung und Überprüfung des Determinationskoeffizienten 610
18 Partialkorrelation und Semipartialkorrelation 616
18.1 Aufgaben und Ziele der Partial- und Semipartialkorrelation 616
18.2 Partialkorrelation 621
18.3 Semipartialkorrelation 625
18.4 Inferenzstatistische Absicherung der Partial- und der Semipartialkorrelation 627
19 Multiple Regressionsanalyse 630
19.1 Zielsetzungen der multiplen Regressionsanalyse 630
19.1.1 Berücksichtigung von Redundanzen und Kontrolle von Störvariablen 630
19.1.2 Prognose und Erklärung 630
19.1.3 Analyse komplexer Zusammenhänge 631
19.2 Notation 632
19.3 Lineare Regression für zwei metrische unabhängige Variablen 633
19.3.1 Multiple Regression als kompensatorisches Modell 633
19.3.2 Grafische Darstellung 634
19.3.3 Bestimmung der Regressionskoeffizienten 634
19.4 Bedeutung der Regressionsgewichte 637
19.4.1 Multiple Regressionsgewichte als Regressionsgewichte bedingter einfacher Regressionen 637
19.4.2 Multiple Regressionsgewichte als Regressionsgewichte von Regressionsresiduen 638
19.4.3 Unstandardisierte vs. standardisierte Regressionsgewichte 640
19.5 Lineare Regression für mehrere metrische unabhängige Variablen 641
19.6 Multiple Korrelation und Determinationskoeffizient 642
19.7 Inferenzstatistik zur multiplen Regressionsanalyse 645
19.7.1 Populationsmodell der multiplen Regression 645
19.7.2 Inferenzstatistische Schätzung und Testung 646
19.7.3 Schätzung der Residualvarianz und des Standardschätzfehlers 647
19.7.4 Schätzung, Signifikanztest und Konfidenzintervalle für die multiple Korrelation ... 647
19.7.5 Schätzung, Signifikanztest und Konfidenzintervalle ... 1
19.7.6 Schätzung, Signifikanztest und Konfidenzintervalle für einen Satz unabhängiger Variablen 653
19.7.7 Verfahren zur Auswahl unabhängiger Variablen 656
19.7.8 Schätzung und Überprüfung des Achsenabschnitts ?0 1
19.7.9 Schätzung der bedingten Erwartungswerte und individuell prognostizierter Werte 1
19.8 Suppressorvariable 660
19.9 Moderierte Regressionsanalyse 664
19.9.1 Moderierte Regressionsanalyse: Zwei unabhängige Variablen 665
19.9.2 Moderierte Regression mit zentrierten Variablen 667
19.9.3 Inferenzstatistische Absicherung eines Moderatoreffekts 671
19.10 Analyse nicht-linearer Zusammenhänge 674
19.11 Analyse kategorialer unabhängiger Variablen 677
19.11.1 Dummy-Codierung 677
19.11.2 Effektcodierung 680
19.11.3 Vergleich von Dummy- und Effektcodierung 683
19.11.4 Inferenzstatistische Absicherung der Regressionsparameter 684
19.11.5 Analyse mehrerer kategorialer unabhängiger Variablen 685
19.11.6 Ordinale unabhängige Variablen 691
19.12 Gemeinsame Analyse kategorialer und metrischer unabhängiger Variablen 691
19.12.1 Additive Verknüpfung kategorialer und kontinuierlicher Variablen: Kovarianzanalyse 691
19.12.2 Kovarianzanalyse in quasi-experimentellen Designs 695
19.12.3 Interaktionen zwischen kategorialen und kontinuierlichen Variablen 703
19.13 Regressionsdiagnostik 705
19.13.1 Korrekte Spezifikation des Modells 705
19.13.2 Messfehlerfreiheit der unabhängigen Variablen 707
19.13.3 Ausreißer und einflussreiche Datenpunkte 708
19.13.4 Multikollinearität 713
19.13.5 Homoskedastizität 715
19.13.6 Unabhängigkeit der Residuen 716
19.13.7 Normalverteilung der Residuen 717
19.13.8 Multivariate Normalverteilung der Variablen 721
19.13.9 Verletzung der Annahmen und Konsequenzen 721
20 Hierarchische lineare Modelle (?Mehrebenenanalyse?) 728
20.1 Hierarchische Datenstrukturen 728
20.1.1 Risiko falscher Schlüsse bei der Interpretation von Zusammenhängen 729
20.1.2 Verletzung der Unabhängigkeitsannahme 731
20.1.3 Mehrebenenmodelle: Ein Überblick 733
20.2 Modelle der Mehrebenenanalyse 733
20.2.1 Das Intercept-Only-Modell 733
20.2.2 Das Random-Intercept-Modell 1
20.2.3 Das Random-Coefficients-Modell 736
20.2.4 Modelle mit festen Level-1- und Level-2-Effekten 739
20.2.5 Analyse von Kontexteffekten 740
20.2.6 Modelle mit Cross-Level-Interaktionseffekt 745
20.3 Parameterschätzung, inferenzstatistische Absicherung und Varianzaufklärung 746
20.3.1 Schätzung der Modellparameter 746
20.3.2 Inferenzstatistische Absicherung der Modellparameter 747
20.3.3 Passung des Modells auf die Daten 749
20.3.4 Wie viel Varianz klärt ein Prädiktor auf? 1
20.3.5 Poweranalyse und Stichprobenumfangsplanung 1
20.4 Modelle der Veränderungsmessung 757
20.4.1 Trendmodelle 758
20.4.2 Kontrastanalysen 763
20.5 Weitere Modelle 767
21 Log-lineare Modelle und Logit-Modelle 770
21.1 Zielsetzungen der log-linearen Analyse 770
21.1.1 Das Simpson-Paradox 770
21.1.2 Ein einführendes Beispiel: Sonnenschutzverhalten 772
21.2 Log-lineare Modelle für eine Analyse einer 2?×?2-Kontingenztabelle 773
21.2.1 Das multiplikative Modell 773
21.2.2 Das additive Modell 775
21.2.3 Das Modell mit einer Referenzkategorie 778
21.2.4 Vergleich der verschiedenen Formulierungen des Modells 779
21.2.5 Allgemeiner Fall einer I?×?J-Kontingenztabelle 779
21.3 Inferenzstatistische Absicherung 780
21.3.1 Populationsmodelle für eine 2?×?2-Kontingenztabelle 780
21.3.2 Parameterschätzung und Hypothesentestung 781
21.3.3 Standardfehler und Konfidenzintervalle 782
21.3.4 Signifikanztests 783
21.4 Überprüfung von Modellen 784
21.4.1 Statistische Überprüfung von Modellannahmen 784
21.4.2 Unabhängigkeitsmodell und saturiertes Modell 786
21.4.3 Hierarchische und nicht-hierarchische log-lineare Modelle 787
21.4.4 Modellvergleiche 787
21.4.5 Spezifikation von Modellen beim produkt-multinomialen Erhebungsschema 788
21.4.6 Effektgröße und Konfidenzintervall 789
21.4.7 Bestimmung der optimalen Stichprobengröße 789
21.5 Log-lineare Modelle für eine 2?×?2?×?2-Kontingenztabelle 791
21.5.1 Multiplikatives Modell 791
21.5.2 Additives Modell 792
21.5.3 Parameterschätzung und Modelltestung 792
21.5.4 Das log-lineare Modell für eine I?×?J?×?K-Kontingenztabelle 795
21.6 Logit-Modell 795
22 Logistische Regressionsanalyse 800
22.1 Grundidee der logistischen Regressionsanalyse für dichotome abhängige Variablen 800
22.1.1 Einfache logistische Regressionsanalyse 801
22.1.2 Multiple logistische Regression 810
22.2 Parameterschätzung 812
22.3 Hypothesenprüfung 813
22.3.1 Hypothesentests für einen einzelnen Parameter 813
22.3.2 Hypothesentests für ein Set von unabhängigen Variablen 816
22.3.3 Hypothesentests in Bezug auf alle unabhängigen Variablen 817
22.3.4 Zerlegung der Likelihood-Ratio-Teststatistik 817
22.4 Effektgrößen 818
22.5 Klassifikation 820
22.6 Bestimmung der optimalen Stichprobengröße 821
22.7 Voraussetzungen der Maximum-Likelihood-Schätzung und Hypothesentestung 823
22.8 Regressionsdiagnostik 824
22.8.1 Korrekte Spezifikation des Modells und Modellanpassungsgüte 824
22.8.2 Messfehlerbehaftetheit der unabhängigen Variablen und Multikollinearität 827
22.8.3 Identifikation von Ausreißern und einflussreichen Datenpunkten 827
22.8.4 Nullzellenproblem 828
22.9 Logistisches Regressionsmodell für mehrkategoriale nominalskalierte abhängige Variablen 829
22.10 Logistisches Regressionsmodell für ordinalskalierte abhängige Variablen 833
VI Modelle mit latenten Variablen 842
23 Messfehlertheorie und Klassische Testtheorie 844
23.1 Theoretische Konzepte der Klassischen Testtheorie 844
23.1.1 Theoretische Konzeption des Messfehlers 845
23.1.2 Theoretische Konzeption des wahren Wertes 847
23.1.3 Eigenschaften der Messfehler- und der True-Score-Variablen 849
23.1.4 Theoretische Konzeption der Reliabilität 850
23.2 Messmodelle 852
23.2.1 Modell essenziell ?-äquivalenter Variablen 852
23.2.2 Modell essenziell ?-paralleler Variablen 860
23.2.3 Modell ?-äquivalenter Variablen 861
23.2.4 Modell ?-paralleler Variablen 861
23.2.5 Zwischenfazit 862
23.2.6 Modell ?-kongenerischer Variablen 864
23.3 Vergleich der verschiedenen Testmodelle 870
23.4 Funktion von Testmodellen für die Psychodiagnostik 871
23.4.1 Itemselektion und Testkonstruktion 871
23.4.2 Messung latenter Merkmalsausprägungen 873
24 Mehrdimensionale Messmodelle und konfirmatorische Faktorenanalyse 878
24.1 Ein einführendes Beispiel: Die Konvergenz von Selbst- und Fremdbericht 878
24.1.1 Ein zweidimensionales Modell 880
24.1.2 Ein alternatives Modell: Modell mit Methodenfaktor 881
24.1.3 Verschiedene Darstellungsformen von Multidimensionalität 883
24.2 True-Score-Modelle vs. Faktormodelle 885
24.2.1 Uniqueness und Kommunalität 885
24.2.2 Faktoren und Ladungen 886
24.2.3 Konfirmatorische vs. exploratorische Faktorenanalyse 886
24.3 Grundidee der Faktorenanalyse 886
24.4 Allgemeine Fragen bei der konfirmatorischen Faktorenanalyse 888
24.4.1 Modellspezifikation: Warum Theorie so wichtig ist! 888
24.4.2 Identifizierbarkeit: Können alle Parameter eindeutig bestimmt werden? 890
24.4.3 Grundideen der Parameterschätzung und der Modelltestung 896
24.5 Schätzmethoden 899
24.5.1 Grundprinzip der Schätzmethoden 899
24.5.2 Maximum-Likelihood-Verfahren 900
24.5.3 Asymptotisch verteilungsfreie Verfahren 901
24.5.4 Andere Schätzmethoden 901
24.5.5 Wahl einer Schätzmethode 903
24.6 Beurteilung der Modellanpassungsgüte 904
24.6.1 Detailmaße der Anpassungsgüte: Residuen 904
24.6.2 Gesamtanpassung des Modells 1
24.6.3 Modellvergleiche 1
24.6.4 Modellmodifikationen 910
24.6.5 Erwartungswertstrukturen 910
24.7 Bestimmung der optimalen Stichprobengröße 911
24.7.1 A-priori-Poweranalyse zur Bestimmung der Stichprobengröße 911
24.7.2 Monte-Carlo-Simulationsstudie zur Bestimmung der Stichprobengröße 911
24.8 Faktorenanalyse für ordinale Variablen 912
24.8.1 Annahme einer itemspezifischen kontinuierlichen Variablen 913
24.8.2 Faktorenanalytisches Modell 914
24.9 Weitere Messmodelle mit latenten Variablen 916
25 Exploratorische Faktorenanalyse und Hauptkomponentenanalyse 920
25.1 Grundprinzipien der exploratorischen Faktorenanalyse 921
25.1.1 Grundgleichung der Faktorenanalyse 921
25.1.2 Schritte bei der exploratorischen Faktorenanalyse 921
25.2 Die Maximum-Likelihood-Faktorenanalyse 922
25.2.1 Annahmen der Maximum-Likelihood-Faktorenanalyse 922
25.2.2 Identifizierbarkeit und Anfangslösung 923
25.2.3 Bestimmung der Anzahl der Faktoren und Modellgültigkeit 924
25.2.4 Rotation 928
25.2.5 Interpretation der Ergebnisse 932
25.2.6 Bestimmung von Faktorwerten 933
25.3 Hauptachsenanalyse und Hauptkomponentenanalyse 933
25.3.1 Grundidee der Hauptkomponentenanalyse 934
25.3.2 Kriterien zur Bestimmung der relevanten Hauptkomponenten 938
25.3.3 Rotation und Ergebnisdarstellung 940
25.3.4 Die Hauptachsenanalyse 942
25.4 Vergleich der Ansätze und praktische Empfehlungen 943
25.5 Faktorenanalyse für dichotome und ordinale Variablen 946
25.6 Einzelfall-Faktorenanalyse und dynamische Faktorenanalyse 947
26 Pfadanalyse und lineare Strukturgleichungsmodelle 952
26.1 Pfadanalyse 953
26.1.1 Das pfadanalytische Modell als ein System von Regressionsmodellen 954
26.1.2 Parameterschätzung und Modellüberprüfung 956
26.1.3 Hypothesenüberprüfung 961
26.2 Lineare Strukturgleichungsmodelle 966
26.2.1 Messmodell und Strukturmodell 967
26.2.2 Parameterschätzung und Hypothesenüberprüfung 969
26.2.3 Latente autoregressive Modelle 969
26.2.4 Latent-State-Trait-Modell 973
26.2.5 Spezielle lineare Strukturgleichungsmodelle 976
26.2.6 Sind Strukturgleichungsmodelle Kausalmodelle? 976
Anhang 980
Glossar 982
Literaturverzeichnis 1000
Hinweise zu den Online-Materialien 1018
Anhang A: Tabellen 1020
1 Binominalverteilung 1020
2 Standardnormalverteilung 1032
3 Zentrale t-Verteilung 1033
4 Wilcoxon-Vorzeichen-Rangtest 1
5 Zentrale ?2-Verteilung 1035
6 Kritische Werte für den Kolmogorov-Smirnov-Test und den Lilliefors-Test 1036
7 Wilcoxon-Rangsummen-Test 1039
8 Zentrale F-Verteilung 1042
9 Kritische Werte für die Differenz nK???nD 1049
Anhang B: Matrixalgebra 1052
1 Matrix 1052
2 Vektor 1052
3 Grundlegende Rechenoperationen mit Matrizen 1053
4 Spezielle Matrizen 1056
5 Demonstration der Berechnung einiger statistischer Kennwerte mittels Matrixalgebra 1059
Sachwortverzeichnis 1064
Leere Seite 1

Erscheint lt. Verlag 1.9.2017
Sprache deutsch
Themenwelt Geisteswissenschaften
ISBN-10 3-621-28622-5 / 3621286225
ISBN-13 978-3-621-28622-0 / 9783621286220
Informationen gemäß Produktsicherheitsverordnung (GPSR)
Haben Sie eine Frage zum Produkt?
PDFPDF (Wasserzeichen)
Größe: 22,1 MB

DRM: Digitales Wasserzeichen
Dieses eBook enthält ein digitales Wasser­zeichen und ist damit für Sie persona­lisiert. Bei einer missbräuch­lichen Weiter­gabe des eBooks an Dritte ist eine Rück­ver­folgung an die Quelle möglich.

Dateiformat: PDF (Portable Document Format)
Mit einem festen Seiten­layout eignet sich die PDF besonders für Fach­bücher mit Spalten, Tabellen und Abbild­ungen. Eine PDF kann auf fast allen Geräten ange­zeigt werden, ist aber für kleine Displays (Smart­phone, eReader) nur einge­schränkt geeignet.

Systemvoraussetzungen:
PC/Mac: Mit einem PC oder Mac können Sie dieses eBook lesen. Sie benötigen dafür einen PDF-Viewer - z.B. den Adobe Reader oder Adobe Digital Editions.
eReader: Dieses eBook kann mit (fast) allen eBook-Readern gelesen werden. Mit dem amazon-Kindle ist es aber nicht kompatibel.
Smartphone/Tablet: Egal ob Apple oder Android, dieses eBook können Sie lesen. Sie benötigen dafür einen PDF-Viewer - z.B. die kostenlose Adobe Digital Editions-App.

Zusätzliches Feature: Online Lesen
Dieses eBook können Sie zusätzlich zum Download auch online im Webbrowser lesen.

Buying eBooks from abroad
For tax law reasons we can sell eBooks just within Germany and Switzerland. Regrettably we cannot fulfill eBook-orders from other countries.

Mehr entdecken
aus dem Bereich
Mit Online-Material

von Wolfgang Schneider; Ulman Lindenberger

eBook Download (2018)
Beltz (Verlag)
58,99