1 / 21

Die einfache/multiple lineare Regression

Die einfache/multiple lineare Regression. Ziel. Funktionaler Zusammenhang zwischen einer oder mehreren unabhängigen Variablen (UV, X) und der abhängigen Variablen (AV, Y) Ermitteln von bestimmten Prädiktoren (X) der abhängigen Variable Y Werte prognostizieren bzw. vorhersagen

yoland
Download Presentation

Die einfache/multiple lineare Regression

An Image/Link below is provided (as is) to download presentation Download Policy: Content on the Website is provided to you AS IS for your information and personal use and may not be sold / licensed / shared on other websites without getting consent from its author. Content is provided to you AS IS for your information and personal use only. Download presentation by click this link. While downloading, if for some reason you are not able to download a presentation, the publisher may have deleted the file from their server. During download, if you can't get a presentation, the file might be deleted by the publisher.

E N D

Presentation Transcript


  1. Die einfache/multiple lineare Regression

  2. Ziel • Funktionaler Zusammenhang zwischen einer oder mehreren unabhängigen Variablen (UV, X) und der abhängigen Variablen (AV, Y) • Ermitteln von bestimmten Prädiktoren (X) der abhängigen Variable Y • Werte prognostizieren bzw. vorhersagen • Untersuchung von Unterschiedshypothesen intervallskalierter, stetiger Variablen.

  3. Streudiagramm - Regressionsgerade Residuum byx (=Beta, =Steigung) ayx, Konstante

  4. Begriffe • Residuen: sind Schätzfehler. Differenz von AVgeschätzt und AVwahr • Regressionsgleichung: (wichtig für Wertschätzung!): Y = β0(Konst) + β1X1+ β2X2+….. mit: β…Regressionskoeffizient (wird geschätzt) Xn…Wert des Prädiktors Xn (ist gegeben)

  5. (korrigiertes) R-Quadrat (=Bestimmtheitsmaß) • Modellprüfung • „wie gut ist die Regression“ • „wie sinnvoll ist es, die Regression anzuwenden“ • Zusammenhang zwischen UV(s) und AV • Anteil der erklärten Varianz von Y durch die Prädiktoren (X)

  6. F-Wert • wird ebenfalls zur Modellprüfung herangezogen H0: alle Regressionskoeffizienten sind Null; sie sind nicht sinnvolle Prädiktoren H1: mindestens ein Koeffizient  ist ungleich 0; min. ein Prädiktor beschreibt die AV gut

  7. Regressionskoeffizient (Beta) • Konstante (=Intercept, ayx): • Höhenlage der Regressionsgeraden • Abstand auf der Y-Achse vom Ursprung • Regressionskoeffizienten (ßi) der Prädiktoren (Xi)

  8. Beispiel 1 – Interpretation Regressionsberechung: X: Gewicht -> Y: Körpergröße R=0.634 R2korr=0.401 Konstante= 136,867 Beta (Gewicht)= 0.574

  9. Bedeutung: Konstante (ayx): 136,867 (hier: Gewicht auf Größe) Im Ursprung des Diagramms dh. bei 0kg ist die geschätzte Größe 136,9cm (hier nicht sinnvoll, besser bei zB: Lernaufwand und Punkteanzahl) Regressionskoeffizient Beta: 0.574 • „Ändert sich das Gewicht (X) um eine Einheit (also 1 kg) so ändert sich die Größe (Y) um 0.574 Einheiten (also 0.574cm) • pro 1kg -> 5.7mm größer -> positiver signifikanter (p=0.03) Zusammenhang bzw. signifikanter Unterschied

  10. Beispiel 2 multiple lineare Regression inkl. Wertschätzung Regressionsberechung: X1: Gewicht X2: Schuhgröße -> Y: Körpergröße -> 2 Prädiktoren (UVs) auf eine AV

  11. Beispiel 2 - Wertschätzung

  12. Streudiagramme

  13. Schätzung einer neuen Person: • Bekannt: Gewicht 80kg, Schuhgröße 45 • Gesucht: Körpergröße -> Formel: Y = β0(Konst.) + β1X1+ β2X2 Körpergröße = Konstante + beta1*Gewicht + beta2*Schuhgröße Körpergröße = 66.05 + 0.123*80 + 2.443*45 = 185.8 cm

  14. Varianzanalyse • Eine AV (quantitativ) • Ein oder mehrere Faktoren (UVs) (qualitativ oder quantitativ in Klassen) • Testung von Unterschiedshypothesen auf Basis von Varianzvergleichen (mQT, mQZ, mQI, F = mQZ/mQI • Verschiedene Hypothesen (Anzahl?)

  15. Varianzanalyse • Achtung auf genügend Versuchspersonen pro Zelle! (Faktorkombination (mind. 10)) -> Dies wird mit steigender Anzahl der UVs (Faktoren) immer schwieriger • Post Hoc Tests: z.B. Scheffé-Test (SPSS) • Alpha Kumulierung: p(k≥1 falsche H1) = 1-(1-α)m • Alpha Adjustierung: • α´= 1-(1- α)1/m • Bonferoni Korrektur: α´= α/m • α´…Alpha pro Einzeltest, m…Anzahl der Einzeltests

  16. Rechenbeispiel: • Der Einfluss von Geschlecht und Alter auf Punkte in einem Leistungstest • Faktor 1: Gender • Faktor 2: Alter (Ist stetig daher Klassen bilden!) • 3Klassen: • -19 • 20-22 • 23-

  17. Kontrolle der Verteilung der VPN auf die Faktorkombinationen • Min. 10 VPN pro Zelle

  18. Ergebnisse:Deskriptive Statistik

  19. Ergebnisse:Sum of Squares (mQI, mQT, mQR, mQZ)

  20. Ergebnisse:Post Hoc nach Scheffé • Post Hoc für Altersklassen (keine sign. Unterschiede) )

  21. Ergebnisse:signifikante Wechselwirkungen • Grafik der • WW

More Related