1 / 33

Wykład 16

Wykład 16. Inne zagadnienia z prostej regresji liniowej. Łączna estymacja β 0 i β 1. Dla jednego parametru konstruujemy przedziały ufności, dla kilku obszary ufności Obszar ufności dla (β 0 , β 1 ) określa zbiór prostych regresji (patrz ``pasmo’’ ufności dla prostej regresji).

yitro
Download Presentation

Wykład 16

An Image/Link below is provided (as is) to download presentation Download Policy: Content on the Website is provided to you AS IS for your information and personal use and may not be sold / licensed / shared on other websites without getting consent from its author. Content is provided to you AS IS for your information and personal use only. Download presentation by click this link. While downloading, if for some reason you are not able to download a presentation, the publisher may have deleted the file from their server. During download, if you can't get a presentation, the file might be deleted by the publisher.

E N D

Presentation Transcript


  1. Wykład 16 Inne zagadnienia z prostej regresji liniowej

  2. Łączna estymacjaβ0 i β1 • Dla jednego parametru konstruujemy przedziały ufności, dla kilku obszary ufności • Obszar ufności dla (β0, β1) określa zbiór prostych regresji (patrz ``pasmo’’ ufności dla prostej regresji). • Ponieważ wektor (b0 , b1) ma rozkład dwuwymiarowy normalny, naturalnym obszarem ufności jest elipsa. • My nauczymy się jak skonstruować prostokątny obszar ufności.

  3. Korekta Bonferroniego • Chcemy aby prawdopodobieństwo, że oba przedziały pokrywają odpowiednie parametry było co najmniej .95 • Nasz ``zapas błędu’’ wynosi więc(α =.05) • Połowę zużywamy na β0 (.025) a połowę na β1 (.025) • Konstruujemy 97.5% PU dla β0 • i 97.5%PU dla β1

  4. Korekta Bonferoniego (2) • b1 ± tcs(b1) • b0 ± tcs(b0) • gdzie tc = t(.0125, n-2) • .0125 = (.05)/(2*2)

  5. Nierówność Bonferroniego • Niech Aoznacza zdarzenie, że przedział dla β0 pokrywa β0 a B niech oznacza zdarzenie, że przedział dla β1pokrywa β1 • A’ i B’ oznaczają dopełnienia zdarzeń A i B • Chcemy aby P(A i B) ≥ 0.95.

  6. Nierówność Bonferoniego (2) • P(A i B)=1-P(A’ lub B’) • P(A’ lub B’) • = P(A’)+ P(B’)-P(A’ i B’) • ≤ P(A’)+P(B’) • Tak więc P(A i B)≥ 1 – (P(A’)+P(B’))

  7. Nierówność Bonferroniego (3) • P(A i B)≥ 1-(P(A’)+ P(B’)) • Tak więc jeżeli P(A’)=P(B’)= 05/2, wtedy • 1-(P(A’)+ P(B’)) = 1 – .05 =.95 • Tak więc P(A i B) ≥0.95

  8. .025 .025 <.025 .025

  9. Przedziały ufności dla wartości oczekiwanej Y • Równoczesna estymacja dla wszystkich Xh, stosujemy ``pasmo’’ ufności Workinga-Hotellinga • ± Ws( ) gdzie W2=2F(α; 2, n-2) • Gdy estymujemy tylko w kilku (g) punktach, można stosować korektę Bonferroniego • ± Bs( ) gdzie B=t(α/(2g), n-2)

  10. data a1; alpha= 0.05;n=50; W2=2*finv(1-alpha,2,n-2); W=sqrt(W2); do g=1 to 15 by 1; B=tinv(1-alpha/2/g,n-2); output; end; procprint data=a1; run;

  11. Obs alpha n g W2 W B 1 0.05 50 1 6.38145 2.52615 2.01063 2 0.05 50 2 6.38145 2.52615 2.31390 3 0.05 50 3 6.38145 2.52615 2.48078 4 0.05 50 4 6.38145 2.52615 2.59532

  12. Obs alpha n g W2 W B 1 0.05 20 1 7.10911 2.66629 2.10092 2 0.05 20 2 7.10911 2.66629 2.44501 3 0.05 20 3 7.10911 2.66629 2.63914 4 0.05 20 4 7.10911 2.66629 2.77453

  13. Równoczesne przedziały predykcyjne • Równoczesna predykcja dla kilku(g) punktów Xh, • Można stosować korektę Bonferroniego • ± Bs(pred) • gdzie B=t(α/(2g), n-2)

  14. Regresja przez początek układu współrzędnych • Yi = β1Xi + ξi • Opcja NOINT w PROC REG • Ogólnie niezbyt dobry pomysł • Problemy z R2i innymi statystykami

  15. Błędy pomiarów • Błędy pomiarów dla Y na ogół nie stanowią problemu (wliczają się w zakłócenie losowe), • Błędy pomiarów dla X mogą powodować obciążenie estymatora nachylenia

  16. Wybór wartości X • W mianownikach wzorów na wariancję większości estymatorów występuje Σ(Xi – )2 • Tak, więc staramy się możliwie ``rozrzucić’’ wartości X

  17. Model w formie n równań • Yi = β0 + β1Xi+ ξi • ξisą niezależnymi zmiennymi losowymi z rozkładu normalnego o wartości oczekiwanej 0 i wariancjiσ2

  18. Model w postaci macierzowej

  19. Model w postaci macierzowej (2)

  20. Macierz eksperymentu

  21. Wektor parametrów

  22. Losowy wektor zakłóceń

  23. Losowy wektor zmiennej zależnej

  24. Model w postaci macierzowej Y= Xβ+ ξ Y = X β+ ξ nx1 nx2 2x1 nx1

  25. Macierz kowariancji

  26. Macierz kowariancji dla wektoraξ

  27. Macierz kowariancji dla Y

  28. Założenia w postaci macierzowej • ξ ~ N(0, σ2I) (rozkład wielowymiarowy normalny)

  29. Równania normalne w postaci macierzowej • XY = (XX)β • Estymator najmniejszych kwadratów • b = (b0, b1) gdzie b = (XX)–1(XY) • Te same wzory są prawdziwe w przypadku regresji wielorakiej (więcej zmiennych objaśniających).

  30. Wartości przewidywane

  31. Macierz H

  32. Użyteczne twierdzenie • U ~ N(μ, Σ), wektor wielowymiarowy normalny • V = c + DU, liniowe przekształcenie U • c jest wektorem, D jest macierzą • V ~ N(c+Dμ, DΣD)

  33. Zastosowanie do wektora b • b = (XX)–1(XY) = ((XX)–1X)(Y) • Y ~ N(Xβ, σ2I) • So b ~ N( (XX)–1X(Xβ), σ2 ((XX)–1X)I ((XX)–1X) • b ~ N(β, σ2 (XX)–1)

More Related